La Ley sobre Inteligencia Artificial de la Eurocámara - soniaboost.com

soniaboost.com

La Ley sobre Inteligencia Artificial de la Eurocámara

La Eurocámara, en su continuo compromiso por abordar los avances tecnológicos y su impacto en la sociedad, se encuentra lista para iniciar las negociaciones de la primera ley sobre inteligencia artificial (IA). El objetivo de esta ley es fomentar un enfoque humano y confiable de la IA, protegiendo la salud, la seguridad, los derechos fundamentales y la democracia frente a posibles efectos adversos.

Negociaciones para la Ley de Inteligencia Artificial

El Parlamento Europeo ha adoptado su posición negociadora sobre la Ley de Inteligencia Artificial (IA) en una votación que arrojó un resultado de 499 votos a favor, 28 en contra y 93 abstenciones. Esta posición será llevada a las conversaciones con los Estados miembros para elaborar el texto final de la ley. La normativa tiene como objetivo garantizar que la IA desarrollada y utilizada en Europa cumpla plenamente con nuestros derechos y valores, respetando requisitos como la supervisión humana, la seguridad, la privacidad, la transparencia, la no discriminación y el bienestar social y medioambiental.

Prácticas prohibidas en el uso de IA

Las normas propuestas están enfocadas en prevenir riesgos y establecen obligaciones para los proveedores y los usuarios de herramientas basadas en IA, de acuerdo con el nivel de riesgo que estas puedan presentar. Los sistemas de IA que representen un nivel inaceptable de riesgo para la seguridad de las personas, como aquellos utilizados para sistemas de puntuación social o clasificación de individuos basada en su comportamiento o características personales, serían completamente prohibidos. Los eurodiputados han ampliado la lista propuesta por la Comisión Europea, añadiendo prohibiciones que se refieren a los usos intrusivos y discriminatorios de la IA, tales como:

  1. Sistemas de identificación biométrica remota, en tiempo real, en espacios públicos.
  2. Sistemas de identificación biométrica remota, a posteriori, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial.
  3. Sistemas de categorización biométrica que utilicen ciertas características identitarias como género, raza, etnia, estatus de ciudadanía, religión o orientación política.
  4. Sistemas policiales predictivos basados en perfiles, ubicación o historial delictivo.
  5. Sistemas de reconocimiento de emociones por las fuerzas de seguridad en la gestión de fronteras, lugares de trabajo o instituciones educativas.
  6. Rastreo indiscriminado de imágenes faciales obtenidas de Internet o circuitos cerrados de televisión para crear bases de datos de reconocimiento facial que violen los derechos humanos y el derecho a la intimidad.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio