Por: Eliana Pérez, X: @EPerezGaffney, LinkedIn
Desde hace años, la IA ha sido un componente central de una amplia gama de tecnologías utilizadas por miles de millones de personas en todo el mundo. En Meta, la IA es parte de sistemas que clasifican publicaciones en el Feed de Facebook o Instagram, combaten el discurso de odio y la desinformación, y ayudan a responder ante desastres naturales y emergencias sanitarias como la pandemia de COVID-19.
Los modelos de IA están diseñados para generar un ecosistema seguro y personalizado para las personas. Así, es fundamental procurar que estos no solo sean justos y sólidos, sino también transparentes, para que la IA realmente contribuya a mejorar la calidad de vida de la gente y se prevengan riesgos.
Para lograrlo, Meta ha definido cinco pilares de desarrollo responsable de IA con base en los Lineamientos de Ética para IA Confiable del Grupo de Expertos de Alto Nivel de la Comisión Europea, así como en los Principios sobre IA de la Organización para la Cooperación y el Desarrollo Económicos: 1) Privacidad y Seguridad, 2) Equidad e Inclusión, 3) Robustez y Seguridad, 4) Transparencia y Control y 5) Responsabilidad y Gobernanza. A continuación resalto algunos ejemplos de cómo estos principios han sido llevados a la práctica.
En materia de seguridad, Meta ha establecido un “Equipo Rojo” que pone a prueba la robustez de nuestros sistemas de integridad apoyados en IA para comprobar su resiliencia ante amenazas. A principios de 2023 se lanzó Llama, un amplio modelo de lenguaje abierto y pre-entrenado, seguido de Llama 2, que es gratuito para investigación y uso comercial. Previo a este lanzamiento se llevó también a la práctica este ejercicio basado en equipos rojos, con participantes internos y externos. Inclusive, en agosto de 2023 Meta participó en la primera iniciativa entre varias empresas y apoyada por el gobierno de Estados Unidos para llevar productos de IA generativa a la conferencia DEFCON para un ejercicio de equipos rojos. Meta sometió su modelo Llama 2 a pruebas de integridad por parte de 2,500 “hackers”.
En cuanto a equidad e inclusión, destaca la iniciativa No Language Left Behind. Meta ha sido pionero en presentar técnicas de traducción automática, lo que permitió crear un modelo capaz de traducir 200 idiomas. Recientemente se ha ampliado la tecnología de conversión de texto a voz y de voz a texto a más de 1.100 idiomas, entre los cuales se incluyen lenguas indígenas e idiomas subrepresentados en materia de contenido digital. Ello no solo facilitará el acceso a contenido para un mayor número de personas, sino que es un avance de gran valor para la preservación de la diversidad lingüística a nivel global.
Para abonar a la transparencia y control por parte de los usuarios, Meta ha desarrollado Stable Signature, un nuevo método de marca de agua para distinguir cuando las imágenes son generadas por IA de código abierto. Aunque la marca de agua es invisible a simple vista, puede ser detectada por algoritmos, incluso si el contenido ha sido editado. Se han incluido marcas de agua similares en muestras de voz generadas por SeamlessM4T v2, modelo fundacional de Meta para traducción de texto y voz. A ello se suma el reciente anuncio sobre el etiquetado de imágenes fotorrealistas creadas con Meta AI que se publiquen en Facebook, Instagram y Threads para que la gente sepa que están «Imaginadas con AI». También, en el marco de los procesos electorales y de participación cívica, Meta incluyó el requisito de que todos los anuncios sobre temas sociales, políticos o electorales que contengan elementos creados digitalmente lo transparenten a los usuarios.
Finalmente, como testimonio de su compromiso para abonar a la gobernanza en materia de IA, Meta participa activamente en los esfuerzos para establecer principios claros y estándares en la industria, incluida la colaboración con el nuevo proyecto del Observatorio de IA de la OCDE para estudiar y difundir las mejores prácticas emergentes que estén en línea con sus principios de IA de 2019. A través de la asociación Open Loop, Meta está creando proyectos innovadores de “creación de prototipos de políticas” para probar potenciales políticas de IA con reguladores y nuevas empresas antes de que se conviertan en ley; ya se han lanzado proyectos de Open Loop enAmérica Latina, incluido México, Estados Unidos, Europa y Asia. Asimismo, Meta está financiando un esfuerzo global para solicitar investigaciones académicas diversas sobre cuestiones éticas de la IA, apoyando proyectos en Asia, África y América Latina, y brindando apoyo fundamental para un Instituto independiente de Ética en Inteligencia Artificial en la Universidad Técnica de Munich. Meta también es socio fundador de la Partnership on AI, el principal foro global y multisectorial orientado al desarrollo responsable y colaborativo de IA.
A través de estas iniciativas, Meta demuestra que es posible desarrollar tecnologías que desaten todo el potencial de la IA para fomentar la inclusión, facilitar la innovación y mejorar los sistemas de las empresas - como ya lo hace Meta con sus tecnologías de moderación y priorización de contenido. Sin duda, es con esfuerzos participativos, herramientas de transparencia y ejercicios multisectoriales que se podrá arribar a estándares de mejores prácticas que permitan a la humanidad aprovechar los beneficios de la IA y abatir los riesgos asociados a posibles abusos, como ha sucedido en la historia con otros tipos de tecnologías.
Referencias:
Comments