• Home
  • Blog
  • Aliados Top
  • Secciones
    • Metodología
    • Top
    • Galardonados
    • Laureados
  • Previous
    • 2024
    • 2023
    • 2022
    • 2021
    • 2020
    • 2019
    • 2018
    • 2017
    • 2016
    • 2015
    • 2014
  • Interés
    • Vocabulario legal
    • Glosario
  • Top Ranking
  • Videos
Menú
  • Home
  • Blog
  • Aliados Top
  • Secciones
    • Metodología
    • Top
    • Galardonados
    • Laureados
  • Previous
    • 2024
    • 2023
    • 2022
    • 2021
    • 2020
    • 2019
    • 2018
    • 2017
    • 2016
    • 2015
    • 2014
  • Interés
    • Vocabulario legal
    • Glosario
  • Top Ranking
  • Videos
Buscar
Cerrar este cuadro de búsqueda.
Facebook Linkedin Youtube

Esto es lo que la ley de la IA considera ‘riesgo inadmisible’

El primer acuerdo en el mundo para una ley que regule la inteligencia artificial se ha alcanzado en Europa. Al ser pionera, podría tener influencia en otras regulaciones internacionales, como ha ocurrido con el Reglamento General de Protección de Datos. Por eso está en el punto de mira. El proyecto de ley se ha desarrollado en torno a los riesgos que puede generar. En el nivel más alto están los considerados “riesgos inadmisibles”.

Aunque habrá que esperar al texto final, de momento el acuerdo diferencia tres tipos de riesgo: riesgo inadmisible, cuando considera que su uso compromete seriamente los derechos de la persona; riesgo alto, si afecta a los derechos fundamentales pero se puede entender su uso en ciertos contextos; y riesgo leve.

Prohibido clasificar por creencias, raza o identidad sexual

¿Qué le parecería que, en el proceso de selección para un puesto de trabajo, le descartaran como candidato porque un sistema de IA ha identificado su tendencia sexual y a su potencial jefe eso le disgusta? Podrían hacerlo sin ni siquiera convocarle para la entrevista, sin conocerle.

Se trata de uno de los llamados “riesgos inadmisibles” derivados del uso de la inteligencia artificial. Se basa en la categorización biométrica, que tiene el potencial de detectar la ideología política, creencias religiosas o filosóficas y también la raza y la orientación sexual.

El reconocimiento facial, utilizado en sistemas de seguridad, tanto pública como privada, se alimenta con gran cantidad de imágenes. Éstas se pueden recolectar de internet o de la ingente cantidad de cámaras de videovigilancia que existen en lugares públicos. Es el caso de la aplicación ClearviewAI, un software de reconocimiento facial que suministra su producto a gobiernos y agencias policiales para la detección de personas. Pues bien, esta forma de recolección de imágenes automatizada va a quedar prohibida.

¿Por qué? Principalmente por la intromisión en la privacidad, pero también porque tienen un gran margen de error al identificar a la persona. Si se admite en juicios, por ejemplo, no tendría sentido usar un sistema que falla para identificar a sujetos en procesos que pueden derivar en sanciones penales. Adicionalmente, este sistema permite controlar a las personas en los espacios públicos.

También se prohíben los sistemas de reconocimiento de emociones que controlan a los individuos todo el tiempo en el ámbito educativo o laboral para evitar, entre otras cosas, que se duerman, pierdan la concentración o muestren apatía. También aquí la ley habla de “riesgo inadmisible”.

Vigilancia en el trabajo

Cuando se han implantado en entornos laborales, los trabajadores han descrito experimentar una incomodidad extrema al sentirse vigilados todo el tiempo. Pero el problema va más allá de la incomodidad: las empresas podrían imponer medidas cuando detectan estas emociones para aumentar la productividad del trabajador si no rinde como se espera. Es más, una mala noche puede ser suficiente para que un sistema de estas características alerte de nuestra “baja productividad”.

Sin duda, puede tener sentido usar el reconocimiento facial y el control de las emociones con un fin claramente positivo para la sociedad, como evitar que una persona se quede dormida conduciendo un coche y provoque un accidente. Lo polémico es que se permita utilizar estas tecnologías con fines como el control de la inmigración o como justificación de la actuación policial.

Comportamiento controlado

No hace mucho, el gobierno neerlandés decidió echar mano de un sistema de inteligencia artificial para organizar un reparto de ayudas sociales entre los más desfavorecidos. ¿Cuál era el problema? Que discriminaba a inmigrantes y personas negras, dos grupos vulnerables que se vieron excluidos en la obtención de esas ayudas. Tan graves fueron las consecuencias que el ministro que implementó el sistema tuvo que dimitir al poco tiempo.

En China han ido aún más lejos. El gobierno ha establecido un sistema de puntos para evaluar a sus ciudadanos. Obtener una baja evaluación puede acarrear restricciones para viajar, o impedir el acceso a un crédito bancario o a un empleo.

Para evitar este tipo de situaciones, la nueva regulación propone abolir los usos dedicados a explotar vulnerabilidades de las personas como la edad, la discapacidad o la situación social y económica.

Otro modelo no permitido son los sistemas de inteligencia que manipulan el comportamiento humano para constreñir su libre albedrío. Son sistemas que se emplean, por ejemplo, para hacer que los usuarios se enganchen más tiempo a las redes sociales, para fomentar que se compren determinados productos o para evitar que las personas tomen ciertas decisiones libremente.

Los usos policiales no se prohíben, pero se consideran de alto riesgo

Sin embargo, la ley no prohíbe que las fuerzas y cuerpos de seguridad recurran a sistemas de identificación biométrica en espacios abiertos al público con fines policiales. En estos casos, se requiere autorización judicial para poder usarlos. Y sólo se pueden utilizar por un tiempo y espacio limitado.

Estos supuestos son los siguientes:

  1. Búsqueda de víctimas concretas, por ejemplo, en secuestros, tráfico y explotación sexual.
  2. Prevención de amenazas específicas y actuales de terrorismo.
  3. Localización o identificación de una persona que haya cometido un delito grave de terrorismo, tráfico y explotación sexual, asesinato, secuestro, violación, robo con armas, participación en un grupo organizado y delitos medioambientales.

El escepticismo de determinados grupos ante estas aplicaciones es comprensible teniendo en cuenta el gran número de falsos positivos que se dan en identificación facial en vivo. Si a eso le añadimos la cantidad de delitos recogidos en el tercer punto, casi parece que se da luz verde en general a cualquier uso en investigaciones policiales.

El esfuerzo que han hecho los Estados para evitar que se prohíba la IA en investigaciones policiales ha sido más que notable. Quizás para estos usos en materia penal se debería articular una legislación concreta, como ocurre con el uso de datos personales.

Sea como fuere, podemos considerar el acuerdo como un gran éxito, dado que los derechos fundamentales siguen siendo de obligado cumplimiento. Y los ciudadanos, independientemente de que su uso esté prohibido o no, podrán recurrir a los tribunales cuando se sientan desprotegidos. 

Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Lea el original.

FUENTE: eleconomista

Artículo anterior¿Cuáles son los beneficios de la NOM 37 la Ley del home Office que entró en vigor en diciembre?Artículo siguiente Necesario modificar Ley de Protección Civil en cuanto a pirotecnia: Antonio Zapata
OTRAS NOTICIAS
  • Sheinbaum ataja la rebelión en Morena contra su secretaria del Bienestar, Ariadna Montiel: “Es una mujer extraordinaria”
  • Morena discutirá lineamientos de comportamiento ético de militancia este 4 de mayo
  • Adulta mayor de 102 años, exige justicia tras ser despojada de su casa en Naucalpan
  • Juez frena captura de Silvano Aureoles, ex gobernador de Michoacán; le concede suspensión provisional
  • Senado recibe iniciativa de Sheinbaum contra spots de gobiernos extranjeros; contemplan multas para concesionarios
  • Medida precautoria o descalificación, la propuesta de Sheinbaum para candidaturas relacionadas con crimen organizado.
  • Noroña reconoce que sí hay candidatos al Poder Judicial ligados al narco: «Se nos fueron algunos casos»
  • Infonavit prepara más de 3 mil denuncias contra ex funcionarios.
  • Atacan a balazos al chófer de un magistrado en Ciudad Judicial.
  • Empresas evaden $3 mil millones al mes por contrabando de combustible
  • Reforma judicial y transformación de la democracia
  • Desabasto de medicamentos y corrupción galopante en el sistema de salud
  • Aprueban diputados reformas en favor de médicos cirujanos militares
  • Aprueban dictamen que impide impugnar reformas a la Constitución
  • Destaca Sheinbaum “cinismo” de Calderón; “anda muy activo”
  • Desestima la corte la declaracióngeneral de inconstitucionalidad dedisposiciones de la ley de amnistía
  • Jafet Ruiz, por un cambio en la perspectiva de la abogacía en México
  • Respalda Congreso del Trabajo a Sheinbaum ante amenazas de EU
  • Avanza reforma contra nepotismo y reelección propuesta por Sheinbaum
  • Ebrard se reunirá con secretario de Comercio de EU; con T-MEC “nos ha ido tan bien que debemos cuidar eso”, afirma
  • Alteraron en el Senado listados de candidaturas, se queja el INE
  • Las cartas entre el Gobierno de Sheinbaum y Google por el golfo: “México no acepta que se renombre su territorio”
  • Abogados Palma & Mendoza
  • Más casillas, personal y votantes: el INE defiende la necesidad de la ampliación presupuestal para la elección judicial
  • Permea incertidumbre entre empresarios de Querétaro ante cambio de gobierno en Estados Unidos

SECCIONES

- Galardonados
- Metodología

INTERÉS

- Vocabulario legal
- Responsabilidad social
- Glosario

OTROS

- Aviso de Privacidad
- Blog
- Videos

SECCIONES

- Galardonados
- Metodología

INTERÉS

- Vocabulario legal
- Responsabilidad social
- Glosario

OTROS

- Aviso de Privacidad
- Blog
- Videos

© Tops los Mejores Abogados 2020-2025 Creado y Optimizado por ZdPublicidad