La Unión Europea (UE) se encuentra en proceso de institucionalizar la primera ley integral del mundo sobre inteligencia artificial (IA): la Ley de Inteligencia Artificial. El propósito de esta regulación es establecer las condiciones bajo las cuales se desarrollará y usará la IA en Europa, considerando su potencial para aportar beneficios en áreas como la salud, transporte, fabricación y energía.
La Comisión Europea, en abril de 2021, propuso un marco regulador que clasificará los sistemas de IA según el riesgo que representen para los usuarios. Esta clasificación determinará el nivel de regulación necesario. El Parlamento Europeo destaca la necesidad de garantizar que los sistemas de IA en la región sean: seguros, transparentes, trazables, no discriminatorios, ecológicos y supervisados por humanos para evitar consecuencias adversas.
Además, se busca establecer una definición única y tecnológicamente neutra de la IA para su aplicación en futuros sistemas.
La propuesta de ley establece una clasificación del riesgo la cual define cuatro niveles de los mismos:
- Riesgo inaceptable: Sistemas de IA que se consideran amenazantes para las personas y, por ende, estarán prohibidos. Ejemplos incluyen juguetes activados por voz que inducen comportamientos peligrosos en niños, sistemas que clasifican personas basados en su comportamiento o estatus, y sistemas de reconocimiento facial en tiempo real.
- Alto riesgo: Estos sistemas podrían afectar la seguridad o los derechos fundamentales. Incluyen IA en productos como juguetes, automóviles y dispositivos médicos. También abarcan sistemas en ocho sectores específicos, desde identificación biométrica hasta gestión de migración. Estos sistemas serán evaluados rigurosamente antes de su comercialización y durante su uso.
- IA generativa: Modelos como ChatGPT deberán revelar que el contenido generado es producto de una IA, evitar la creación de contenido ilegal y ofrecer resúmenes de los datos protegidos por derechos de autor usados en su entrenamiento.
- Riesgo limitado: Estos sistemas deben ser transparentes para que los usuarios decidan si desean interactuar con ellos o no, especialmente en el caso de tecnologías como los deepfakes.
El 14 de junio de 2023, el Parlamento adoptó una posición sobre la ley. El siguiente paso será la discusión sobre la versión final de la ley con el Consejo y los países miembros de la UE. Se espera llegar a un acuerdo al cierre del presente año.