Por Nicolás Arrioja Landa, LinkedIn
En enero de 2023, la OCDE formó un grupo de expertos para investigar los problemas que puede causar la Inteligencia Artificial (IA). Este grupo tiene dos objetivos principales: crear una manera común para reportar problemas con IA y desarrollar un monitor que rastree estos problemas.
A medida que el uso de la IA se expande, aumenta el riesgo de causar daños a personas, empresas y al medio ambiente. Estos daños pueden variar en magnitud y pueden afectar a diferentes grupos. Para evitar estos problemas, es crucial que las personas que trabajan con IA utilicen los mismos términos para describir los fallos de estos sistemas. Así, todos los países pueden aprender de los errores y prevenir su repetición. A estos fallos se les denomina "incidentes de IA".
Definición de Términos
Incidente de IA: Un evento en el que un sistema de IA, durante su desarrollo, uso o mal funcionamiento, causa daño directa o indirectamente. El daño puede manifestarse de varias formas:
• Lesiones físicas o problemas de salud a individuos o grupos.
• Disrupción de infraestructura crítica (por ejemplo, redes eléctricas o sistemas de transporte).
• Violación de derechos humanos o leyes que protegen derechos fundamentales, laborales o de propiedad intelectual.
• Daños a la propiedad, comunidades o al medio ambiente.
Peligro de IA: Una situación donde el desarrollo, uso o mal funcionamiento de sistemas de IA podría causar, de manera plausible, un incidente de IA. Un incidente de IA, como se mencionó, puede provocar daños como lesiones a personas, afectación de infraestructura crítica, violaciones a derechos humanos o daños ambientales.
Esta definición se basa en varios documentos clave, incluyendo un informe de la OCDE sobre un marco común para reportar incidentes de IA, la definición propuesta en la Ley de IA de la Unión Europea y discusiones con expertos en gobernanza de la IA de la OCDE.
Un peligro grave de IA es una situación donde un sistema de IA podría causar un incidente o desastre grave de IA. En términos más simples, un incidente de IA es un evento que ya ha sucedido y ha causado daño, mientras que un peligro de IA es una señal de alerta temprana que indica que un sistema de IA podría causar problemas en el futuro si no se toman medidas preventivas.
Concepto de Daño en Normas Técnicas y Regulaciones
El concepto de daño es fundamental en las normas técnicas y regulaciones que definen incidentes y peligros relacionados con la IA. Existen diferentes marcos de trabajo que analizan diversas dimensiones del daño, dependiendo del contexto, las regulaciones vigentes, los objetivos y las áreas afectadas. Las definiciones de incidentes suelen centrarse en:
• Daño potencial: la posibilidad de que ocurra un daño.
• Daño real: un daño que ya ha ocurrido.
El daño potencial se expresa como el riesgo o la probabilidad de que ocurra un daño, dependiendo tanto de la probabilidad de que ocurra un evento como de la gravedad de sus consecuencias. Identificar y abordar los riesgos y peligros que pueden surgir del desarrollo y uso de sistemas de IA es crucial. El daño potencial se asocia comúnmente con el concepto de peligro.
El daño real se refiere a un riesgo que se ha materializado. Las definiciones de daño real varían según el contexto, generalmente enfocándose en lesiones físicas, daños a la salud, la propiedad o el medio ambiente. Algunas normativas, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, utilizan el término "daño" para referirse a estos perjuicios. El daño real se asocia comúnmente con el concepto de incidente.
Clasificación de Incidentes y Peligros de IA
La clasificación propuesta por la OCDE de incidentes y peligros de IA según la gravedad del daño se basa en un análisis de más de 30 marcos de trabajo, normas e instrumentos legales relevantes a riesgos y daños. La definición de incidentes graves de IA se enfoca en aquellos que causan daños significativos, incluyendo lesiones o muerte, interrupciones graves a infraestructuras críticas, violaciones serias de derechos humanos o daños considerables a la propiedad, comunidades o el medio ambiente.
Un desastre de IA se define como un incidente grave de IA que altera el funcionamiento de una comunidad o sociedad. Este tipo de incidente puede superar la capacidad de la comunidad para enfrentarlo con sus propios recursos, y sus efectos pueden ser inmediatos y localizados o extenderse por un área amplia y durar mucho tiempo.
Sistema Común para Reportar Incidentes de IA
El grupo de expertos de la OCDE busca crear un sistema común para reportar incidentes de IA, lo que permitirá evaluar adecuadamente los daños y riesgos relacionados con la IA. Este marco ayudará a identificar los tipos clave de daños, como:
• Daños físicos
• Daños ambientales
• Daños económicos
• Daños a la reputación
• Daños al interés público
• Daños a los derechos fundamentales
Además, considerará otras dimensiones del daño, como:
• Severidad
• Alcance
• Escala geográfica
• Tangibilidad
• Cuantificación
• Materialización
• Reversibilidad
• Recurrencia
• Impacto
• Plazo
Establecer clasificaciones claras para categorizar incidentes según cada dimensión del daño es un paso adicional importante. La definición de "seriedad" en un incidente de IA depende del contexto.
Conclusiones
Es crucial definir bien los términos relacionados con la IA para que todos tengamos un marco común a nivel nacional e internacional. Las organizaciones están haciendo esfuerzos significativos para lograr esto. Este artículo busca ofrecer una comprensión básica que sirva de base para entender documentos más complejos y detallados sobre estos temas.
Fuente: OECD. (2024). Defining AI incidents and related terms (OECD Artificial Intelligence Papers No. 16).
Comments