La inteligencia artificial (IA) ha salido de los laboratorios y emerge como una potente herramienta con la habilidad de transformar nuestra vida cotidiana, impulsar el crecimiento económico e inclusive salvaguardar la seguridad global. Sin embargo, las opiniones sobre su impacto varían significativamente. Mientras algunos la ven como una oportunidad para mejorar nuestras decisiones humanas, otros temen que pueda reemplazar a la inteligencia humana debido a su eficiencia. Esta competencia global por el avance de la IA ha impulsado inversiones considerables por parte de gobiernos y empresas.
En un munedo donde nos hemos transformado de átomos a bits, nuestra identidad en línea se construye a partir del perfilamiento y las predicciones basadas en nuestra información personal, lo que alimenta el mercado digital y genera valor. Es por ello que acumulación masiva de datos plantea inquietudes en torno a la protección de la privacidad y la manipulación de información, incluyendo el micro-targeting y la toma de decisiones automatizadas en múltiples áreas.
Dentro del ámbito de los Derechos Humanos (DDHH), el derecho al libre desarrollo de la personalidad se erige como un principio fundamental que garantiza la autonomía individual y la toma de decisiones sin coacción. No obstante, el perfilamiento masivo y la manipulación de perfiles pueden socavar este derecho al utilizar nuestros perfiles para influir en nuestras emociones y decisiones. La protección de datos personales (DP) y la IA están intrínsecamente vinculadas en este contexto.
La IA y su tecnología subyacente tienen el potencial de transformar radicalmente el procesamiento de DP, permitiendo que sus sistemas y modelos realicen una amplia gama de actividades de procesamiento de manera independiente. Esto plantea preguntas fundamentales sobre la singularidad de la IA y su capacidad de ser "inteligente" de formas diferentes a las humanas.
Con los avances recientes en el aprendizaje automático y el análisis automatizado de datos, el reconocimiento de emociones ha surgido como un campo de investigación destacado. La implementación de algoritmos capaces de interpretar emociones humanas y predecir respuestas emocionales plantea riesgos evidentes; si a esto le sumamos la desinformación basada en el perfilamiento emocional, no cabe duda que se puede llegar a influir en nuestras libertades de expresión y de elección.
El cómputo afectivo, que involucra la detección y el uso de emociones, plantea preguntas éticas importantes, como el grado de control que las personas tienen sobre sus emociones y si es éticamente aceptable utilizar emociones de manera automatizada para influir en las personas. La adopción de estándares para el tratamiento e intercambio de emociones puede ayudarnos a comprendernos mejor como individuos y nuestra interacción con el entorno. Sin embargo, también debemos abordar las implicaciones de utilizar emociones negativas para manipular a las personas.
Para abordar estos desafíos se requiere de un marco ético sólido para determinar la aceptabilidad de las tecnologías y garantizar que no sean demasiado subjetivas ni restrinjan los beneficios de estas innovaciones.
En este contexto, es esencial reconocer que la resolución de estos problemas no puede ser responsabilidad exclusiva de un único actor. Un enfoque de multistakeholder es necesario para determinar si se requiere regulación o autorregulación, desarrollar políticas públicas efectivas y mejorar la educación de las personas usuarias. Además, se debe promover una gestión inteligente de la información que fomente el desarrollo y la competitividad en el mundo digital.
A pesar de los avances tecnológicos constantes, la discusión sobre los desafíos éticos sigue en sus primeras etapas. Las preguntas éticas surgen cuando la tecnología supera la capacidad de la sociedad para comprender y gestionar sus implicaciones.
En este contexto debemos reconsiderar el papel que la ciberseguridad desempeña nuestra protección: hemos de tomar consiencia de que va más allá de ser simplemente una herramienta técnica. Actualmente constituye un pilar fundamental para salvaguardar los derechos fundamentales, previniendo y mitigando amenazas y vulnerabilidades que puedan socavar DDHH.
A nivel global ya existen, o están en desarrollo, diversas iniciativas que abordan la intersección de la IA, la ciberseguridad y los DDHH. Éstas incluyen la estrategia de IA de la Unión Europea, que enfatiza la ética y la privacidad; las Directrices de la OCDE, que promueven sistemas de IA respetuosos con los derechos humanos; la Resolución sobre la ética y la IA de la UNESCO, centrada en DDHH (en específico PDP) y desarrollo sostenible. Estos esfuerzos buscan garantizar un uso ético y responsable de la tecnología en un mundo cada vez más digitalizado.
En nuestro país, las discusiones políticas relacionadas con la IA y los DDHH deben guiarse por consideraciones legales, sociales y éticas que estén interrelacionadas e interdependientes. En general, relacionadas con las cuestiones de transparencia en el uso de esta tecnología, accountability y la necesidad de democratizar la investigación, con un enfoque de ciberseguridad con perspectiva de derechos humanos desde diseño.
Comentários