riesgos, aplicaciones prohibidas y multas



Tras 36 horas de negociaciones, los 27 y el Parlamento anunciaron el acuerdo: la primera ley del mundo sobre inteligencia químico. La código aún tiene por delante un espacioso camino funcionario y parlamento y no se demora que entre en vigor hasta internamente de varios abriles, pero supone todo un hito histórico que marca un antiguamente y un posteriormente en el uso de la IA.

¡TRATO! ¡TRATO! ¡TRATO! El Consejo de la Unión Europea y el Parlamento Europeo han llegado a un acuerdo provisional sobre la ley de inteligencia químico”. Así, en trivio mayúsculas, lo ha anunciado la Presidencia española del Consejo de la UE, demostrando la magnitud del acuerdo. Un acuerdo que “tiene como objetivo respaldar que los sistemas de IA colocados y utilizados en la UE sean seguros y respeten los derechos fundamentales y los títulos europeos”.

Tras dos días de largas negociaciones e intensos debates -dos sesiones de 22 y 14 horas- se ha llegado a este convenio comunitario que, aunque no se demora que esté completamente en funcionamiento hasta finales de 2026 -algunas medidas sí se implementarán antes-, subraya la pobreza que había para regular un campo tan al acrecentamiento y en crecimiento como es la IA.

Conocida como IA Act, la Ley de Inteligencia Químico, se presentó por primera vez en abril de 2021. Ahora, tras la gran popularización de aplicaciones como ChatGPT, los organismos gubernamentales han manido la pobreza de darle un impulso a esta reglamento que es provisional -ambas partes deben todavía ratificarlo-, pero todavía una sinceridad.

“La ley de inteligencia químico de la UE es pionera en el mundo. Un situación justo único para el exposición de la inteligencia químico el que se puede dejarlo en Dios”, dijo la presidenta de la Comisión Europea, Ursula von der Leyen, en un mensaje en su cuenta de la red social X.

4 niveles de aventura

“El acuerdo centra la norma en los riesgos identificables, aporta seguridad jurídica y abre el camino a la innovación en una IA fiable. Al respaldar la seguridad y los derechos de las personas y empresas, la ley apoyará el exposición, despliegue y aprovechamiento de la IA en la UE centrados en las personas, transparentes y responsables”, ha señalado Von der Leyen.

Una de las claves de la IA Act es que clasifica la inteligencia químico en función del aventura que representa. En el comunicado en el que se detalla la reglamento se hace remisión a cuatro niveles, que van desde el más bajo hasta el inasumible.

Según este criterio, la mayoría de IAs se enmarcarán en el primer caso, el de ‘aventura minúsculo‘. Aquí entrarían, entre otros, los sistemas de recomendación. En estos casos, se “beneficiarán de un pase osado y la partida de obligaciones”, reza el comunicado.

Caso diferente es cuando se considere que la inteligencia químico es de ‘parada aventura‘, como pueden ser las relacionadas con infraestructuras críticas, como instalaciones de agua, gas y electricidad o dispositivos médicos. La tecnología estará entonces regida a “requisitos estrictos”: sistemas de mitigación de riesgos, un registro de actividad, supervisión y aportar información clara, entre otras medidas.

Y a estos dos habría que añadir otros dos niveles: el de ‘transparencia específico‘, que establece que en el caso de los chatbots los usuarios deben ser conscientes de que están interactuando con una máquina; y el ‘aventura inaceptable‘, donde se incluirían las IAs que “manipulan el comportamiento humano para eludir el osado capricho de los usuarios”. En esos segundos casos, la Comisión Europea deje directamente de prohibición.

Aplicaciones prohibidas

Encima, el Parlamento Europeo especifica aplicaciones prohibidas que representan una amenaza tanto para los derechos de los ciudadanos como para la democracia y entre los que se incluirían ciertos sistemas de agradecimiento biométrico y de categorización. En concreto, cita los sistemas de categorización biométrica que se apoyan en “características sensibles”, como la raza, la orientación sexual o el credo; “la linaje no dirigida” de imágenes de rostros de Internet o de cámaras de vigilancia (CCTV) para elaborar bases de datos de agradecimiento; o sistemas de puntuación social basados en el comportamiento social o las características personales.

De esta forma, la norma prohíbe las cámaras de agradecimiento facial en espacios públicos. No obstante, desde los gobiernos centrales han presionado para permitirlas en determinadas circunstancias y en casos concretos, siempre con previa autorización sumarial.

Otra de las claves que han alargado la negociación ha sido la regulación de los modelos de IA generativa, como ChatGPT o Bard. Esta tecnología contará con reglas específicas con el objetivo de respaldar la transparencia. “Para modelos muy potentes que podrían suscitar riesgos sistémicos, habrá obligaciones vinculantes adicionales relativas a la mandato de riesgos y seguimiento de incidentes graves, la realización de evaluaciones de modelos y pruebas adversas”, se explica.

Multas para apuntalar que se cumpla la ley

En lo referente a las sanciones, se precisa que saltarse las pautas de la código puede llevar multas que van desde 7,5 millones de euros o el 1,5% del bulto de negocio a 35 millones de euros o el 7% del bulto de negocio. El precio final dependerá del tipo de infracción o el tamaño de la empresa.

¿Qué había antiguamente de esta reglamento?

Ya antiguamente de la IA Act, en Europa se habían tomado diversas medidas con la finalidad de asaltar los desafíos que plantea la inteligencia químico. Lo mismo ocurría en Estados Unidos, aunque todas estas acciones eran más perfectamente directrices éticas, estrategias nacionales y regulaciones generales de datos. La situación cambia ahora con esta código con detalles específicos y perfectamente detallados.

Entre esas pautas europeas anteriores a la flamante código sobre el uso de la IA se encuentran las siguientes:

  • Directrices Éticas para la IA Confiable: en abril de 2019, la Comisión Europea presentó unas directrices éticas para el exposición y uso de la IA. Estas estaban centradas en apuntalar que esta tecnología fuera justo, ética y robusta desde un punto de paisaje técnico.
  • Reglamento Genérico de Protección de Datos (GDPR): implementado en mayo de 2018, y aunque no específico de la inteligencia químico, el GDPR influyó significativamente en el manejo de los datos relacionados con esta útil, sobre todo en lo referente a la privacidad y protección de los datos personales.
  • Iniciativas Nacionales: varios países de la UE, entre los que se encuentran Francia o Alemania, han desarrollado estrategias propias sobre la inteligencia químico, centradas en la ética, la innovación y el apoyo a la investigación y el exposición en el campo de la IA.

Y en EEUU encontrábamos estas directrices:

  • Derrotero de la Casa Blanca para la Regulación de la IA: la Casa Blanca publicó un conjunto de principios para el exposición y la regulación de la inteligencia químico en enero de 2020. Unos principios que estaban enfocados en la promoción de la innovación y el crecimiento financiero, al tiempo que se protegía la seguridad pública y se fomentaban los títulos estadounidenses.
  • National Químico Intelligence Initiative Act: aprobada a finales de 2020 con el objetivo de coordinar y armonizar los esfuerzos de inteligencia químico en todo el gobierno federal de los Estados Unidos, por otra parte de para promover la investigación, la educación y la formación en IA.
  • Directrices y estándares técnicos: el Instituto Doméstico de Estándares y Tecnología (NIST), entre otras organizaciones, han trabajado en el exposición de estándares y marcos para la inteligencia químico, entre los que se incluyen aspectos de fiabilidad y seguridad.
  • Iniciativas del sector privado: el sector privado todavía ha jugado un papel importante en lo referente a las prácticas éticas de la IA. Así, empresas de la talla de Google, Microsoft o IBM han desarrollado sus propios principios éticos sobre la IA, así como han participado en varias iniciativas para promover su uso responsable.

Leave a Comment

Your email address will not be published. Required fields are marked *