lunes, 25 de septiembre de 2023

Sobre la IA: ¿Qué debemos regular?

 Tomado de Universo Abierto

«Regulatory Framework Proposal on Artificial Intelligence | Shaping Europe’s Digital Future», 30 de junio de 2023. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai.

La Comisión Europea propuesto el primer marco legal sobre inteligencia artificial (IA) que aborda los riesgos de la IA y coloca a Europa en una posición líder a nivel mundial.

La propuesta regulatoria tiene como objetivo proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claras con respecto a usos específicos de la IA. Al mismo tiempo, la propuesta busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (PYMEs).

La propuesta forma parte de un paquete más amplio sobre IA, que también incluye el Plan Coordinado actualizado sobre IA. Juntos, el marco regulatorio y el Plan Coordinado garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. Además, fortalecerán la adopción, inversión e innovación en IA en toda la Unión Europea.

¿Por qué necesitamos normas sobre la inteligencia artificial (IA)?

La regulación propuesta sobre la IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado o nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.

Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción particular. Por lo tanto, puede resultar difícil evaluar si alguien ha sido perjudicado injustamente, como en una decisión de contratación o en una solicitud para un programa de beneficios públicos.

Aunque la legislación existente proporciona cierta protección, no es suficiente para abordar los desafíos específicos que pueden plantear los sistemas de IA.

Las normas propuestas:

  • Abordar los riesgos creados específicamente por las aplicaciones de IA.
  • Proponer una lista de aplicaciones de alto riesgo.
  • Establecer requisitos claros para los sistemas de IA en aplicaciones de alto riesgo.
  • Definir obligaciones específicas para los usuarios de IA y los proveedores de aplicaciones de alto riesgo.
  • Proponner una evaluación de conformidad antes de que el sistema de IA se ponga en servicio o se coloque en el mercado.
  • Proponer la aplicación después de que dicho sistema de IA se haya colocado en el mercado.
  • Proponer una estructura de gobernanza a nivel europeo y nacional.

El Marco Regulatorio define 4 niveles de riesgo en la inteligencia artificial (IA):

  1. Riesgo inaceptable
  2. Riesgo alto
  3. Riesgo limitado
  4. Riesgo mínimo o nulo

Riesgo inaceptable

Todos los sistemas de inteligencia artificial (IA) considerados una amenaza evidente para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la calificación social por parte de los gobiernos hasta los juguetes que utilizan asistentes de voz que fomentan un comportamiento peligroso.

Riesgo alto

Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:

  • Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos.
  • Educación o formación profesional, que pueden determinar el acceso a la educación y la carrera profesional de alguien (por ejemplo, calificación de exámenes).
  • Componentes de seguridad de productos (por ejemplo, aplicaciones de IA en cirugía asistida por robots).
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para procedimientos de contratación).
  • Servicios privados y públicos esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo).
  • Aplicación de la ley que puede interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de la evidencia).
  • Gestión de migración, asilo y control fronterizo (por ejemplo, verificación de la autenticidad de documentos de viaje).
  • Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

Los sistemas de IA de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan ser puestos en el mercado:

  • Sistemas adecuados de evaluación y mitigación de riesgos.
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar riesgos y resultados discriminatorios.
  • Registro de la actividad para garantizar la trazabilidad de los resultados.
  • Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento.
  • Información clara y adecuada para el usuario.
  • Medidas apropiadas de supervisión humana para minimizar el riesgo.
  • Alto nivel de robustez, seguridad y precisión.

Todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines de aplicación de la ley está, en principio, prohibido.

Se definen y regulan estrictamente excepciones limitadas, como cuando sea necesario buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o procesar a un autor o sospechoso de un delito grave.

Dicho uso está sujeto a autorización por parte de un órgano judicial u otro organismo independiente y a límites adecuados en cuanto a tiempo, alcance geográfico y bases de datos consultadas.

Riesgo limitado

El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia. Cuando se utilizan sistemas de IA como chatbots, los usuarios deben estar conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada sobre si continúan o retroceden.

Riesgo mínimo o nulo

La propuesta permite el uso gratuito de la IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA actualmente utilizados en la Unión Europea entran en esta categoría.

Tomado de Universo Abierto

No hay comentarios: