Getting your Trinity Audio player ready... |
Legisladores de la Unión Europea llegaron a un acuerdo político sobre un marco legal para regular la inteligencia artificial, marcando un hito a nivel mundial y en caso de que el Parlamento Europeo la apruebe, incluso podrían ser un ejemplo a seguir para otros países.
Los detalles de lqsa nueva ley que restringe la AI
Después de un intenso debate y negociaciones, el acuerdo pone en la mesa una propuesta basada en el riesgo que representa la AI. Incluyen prohibiciones en el uso de la AI como categorización biométrica basada en características sensibles, rastreo no dirigido de bases de datos de reconocimiento facial y el reconocimiento de emociones en entornos laborales e instituciones educativas.
En cuanto a las limitaciones de la fuerza del orden están algunas limitaciones al uso de la identificación biométrica remota, siendo posible solo con una autorización judicial para situaciones específicas.
En cuanto a la AI de alto riesgo y sus propósitos generales, imponiendo obligaciones a los sistemas que podrían potencialmente dañar la salud, seguridad o derechos fundamentales. Introduce evaluaciones de impacto obligatorias para sectores de alto riesgo, requisitos de transparencia y espacios reguladores para startups.
Sanciones por incumplimiento de la ley que restringe la AI
Las multas son significativas alcanzando hasta los 35 millones de euros o el 7% de la facturación global. La ley excluye aplicaciones militares y el uso no profesional de la AI.
Esta propuesta busca equilibrar la innovación con los derechos fundamentales y los valores europeos. Se espera la adopción formal del texto final pronto, con la implementación gradual que podría comenzar cerca del 2026. Los legisladores aún deben trabajar en algunos detalles de la nueva ley pero mientras esto sucede la tecnológica puede evolucionar mucho más hasta entonces.
Por qué es importante: Esto convierte a la UE en el primer orden de gobierno en aprobar una legislación regulatoria sobre AI.
«Los responsables políticos europeos se centraron en los usos más arriesgados de la AI por parte de empresas y gobiernos, incluidos aquellos para la aplicación de la ley y la operación de servicios cruciales como agua y energía», según el New York Times.
Los fabricantes de grandes sistemas de IA, como OpenAI y otros, estarán sujetos a requisitos de transparencia, y los sistemas que creen medios manipulados deberán dejar esto claro a los usuarios.