En muchos sentidos, la IA crea oportunidades apasionantes para que todos demos vida a nuevas ideas. Microsoft está adoptando nuevas medidas para garantizar que estas nuevas tecnologías sean inmunes a los abusos. Como empresa, estamos comprometidos con un enfoque robusto, técnico e integral que proteja a las personas, basado en la seguridad por diseño. Nuestra sólida arquitectura de seguridad se aplica en la plataforma de IA, el modelo y las aplicaciones. Incluye aspectos como el análisis continuo de equipo rojo, clasificadores preventivos, el bloqueo de solicitudes abusivas, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema. La procedencia duradera de los medios y las marcas de agua son esenciales para combatir las falsificaciones en vídeo, imágenes o audio. Usamos métodos criptográficos para marcar y firmar el contenido generado por IA con metadatos sobre su origen e historia. Microsoft ha sido líder en I+D sobre métodos para autenticar la procedencia, entre otras cosas como cofundador de Project Origin y la Coalition for Content Provenance and Authenticity (C2PA). Usamos tecnología de procedencia, marcas de agua y técnicas de huellas dactilares para determinar rápidamente si una imagen o un vídeo se han generado o manipulado por IA. Nos comprometemos a identificar y eliminar contenidos engañosos y abusivos como este cuando se encuentren en nuestros servicios alojados para consumidores, como LinkedIn, nuestra red de juegos y otros servicios pertinentes.