• Home
  • Blog
  • Aliados Top
  • Secciones
    • Metodología
    • Top
    • Galardonados
    • Laureados
  • Previous
    • 2024
    • 2023
    • 2022
    • 2021
    • 2020
    • 2019
    • 2018
    • 2017
    • 2016
    • 2015
    • 2014
  • Interés
    • Vocabulario legal
    • Glosario
  • Top Ranking
  • Videos
Menú
  • Home
  • Blog
  • Aliados Top
  • Secciones
    • Metodología
    • Top
    • Galardonados
    • Laureados
  • Previous
    • 2024
    • 2023
    • 2022
    • 2021
    • 2020
    • 2019
    • 2018
    • 2017
    • 2016
    • 2015
    • 2014
  • Interés
    • Vocabulario legal
    • Glosario
  • Top Ranking
  • Videos
Buscar
Cerrar este cuadro de búsqueda.
Facebook Linkedin Youtube

Esto es lo que la ley de la IA considera ‘riesgo inadmisible’

El primer acuerdo en el mundo para una ley que regule la inteligencia artificial se ha alcanzado en Europa. Al ser pionera, podría tener influencia en otras regulaciones internacionales, como ha ocurrido con el Reglamento General de Protección de Datos. Por eso está en el punto de mira. El proyecto de ley se ha desarrollado en torno a los riesgos que puede generar. En el nivel más alto están los considerados “riesgos inadmisibles”.

Aunque habrá que esperar al texto final, de momento el acuerdo diferencia tres tipos de riesgo: riesgo inadmisible, cuando considera que su uso compromete seriamente los derechos de la persona; riesgo alto, si afecta a los derechos fundamentales pero se puede entender su uso en ciertos contextos; y riesgo leve.

Prohibido clasificar por creencias, raza o identidad sexual

¿Qué le parecería que, en el proceso de selección para un puesto de trabajo, le descartaran como candidato porque un sistema de IA ha identificado su tendencia sexual y a su potencial jefe eso le disgusta? Podrían hacerlo sin ni siquiera convocarle para la entrevista, sin conocerle.

Se trata de uno de los llamados “riesgos inadmisibles” derivados del uso de la inteligencia artificial. Se basa en la categorización biométrica, que tiene el potencial de detectar la ideología política, creencias religiosas o filosóficas y también la raza y la orientación sexual.

El reconocimiento facial, utilizado en sistemas de seguridad, tanto pública como privada, se alimenta con gran cantidad de imágenes. Éstas se pueden recolectar de internet o de la ingente cantidad de cámaras de videovigilancia que existen en lugares públicos. Es el caso de la aplicación ClearviewAI, un software de reconocimiento facial que suministra su producto a gobiernos y agencias policiales para la detección de personas. Pues bien, esta forma de recolección de imágenes automatizada va a quedar prohibida.

¿Por qué? Principalmente por la intromisión en la privacidad, pero también porque tienen un gran margen de error al identificar a la persona. Si se admite en juicios, por ejemplo, no tendría sentido usar un sistema que falla para identificar a sujetos en procesos que pueden derivar en sanciones penales. Adicionalmente, este sistema permite controlar a las personas en los espacios públicos.

También se prohíben los sistemas de reconocimiento de emociones que controlan a los individuos todo el tiempo en el ámbito educativo o laboral para evitar, entre otras cosas, que se duerman, pierdan la concentración o muestren apatía. También aquí la ley habla de “riesgo inadmisible”.

Vigilancia en el trabajo

Cuando se han implantado en entornos laborales, los trabajadores han descrito experimentar una incomodidad extrema al sentirse vigilados todo el tiempo. Pero el problema va más allá de la incomodidad: las empresas podrían imponer medidas cuando detectan estas emociones para aumentar la productividad del trabajador si no rinde como se espera. Es más, una mala noche puede ser suficiente para que un sistema de estas características alerte de nuestra “baja productividad”.

Sin duda, puede tener sentido usar el reconocimiento facial y el control de las emociones con un fin claramente positivo para la sociedad, como evitar que una persona se quede dormida conduciendo un coche y provoque un accidente. Lo polémico es que se permita utilizar estas tecnologías con fines como el control de la inmigración o como justificación de la actuación policial.

Comportamiento controlado

No hace mucho, el gobierno neerlandés decidió echar mano de un sistema de inteligencia artificial para organizar un reparto de ayudas sociales entre los más desfavorecidos. ¿Cuál era el problema? Que discriminaba a inmigrantes y personas negras, dos grupos vulnerables que se vieron excluidos en la obtención de esas ayudas. Tan graves fueron las consecuencias que el ministro que implementó el sistema tuvo que dimitir al poco tiempo.

En China han ido aún más lejos. El gobierno ha establecido un sistema de puntos para evaluar a sus ciudadanos. Obtener una baja evaluación puede acarrear restricciones para viajar, o impedir el acceso a un crédito bancario o a un empleo.

Para evitar este tipo de situaciones, la nueva regulación propone abolir los usos dedicados a explotar vulnerabilidades de las personas como la edad, la discapacidad o la situación social y económica.

Otro modelo no permitido son los sistemas de inteligencia que manipulan el comportamiento humano para constreñir su libre albedrío. Son sistemas que se emplean, por ejemplo, para hacer que los usuarios se enganchen más tiempo a las redes sociales, para fomentar que se compren determinados productos o para evitar que las personas tomen ciertas decisiones libremente.

Los usos policiales no se prohíben, pero se consideran de alto riesgo

Sin embargo, la ley no prohíbe que las fuerzas y cuerpos de seguridad recurran a sistemas de identificación biométrica en espacios abiertos al público con fines policiales. En estos casos, se requiere autorización judicial para poder usarlos. Y sólo se pueden utilizar por un tiempo y espacio limitado.

Estos supuestos son los siguientes:

  1. Búsqueda de víctimas concretas, por ejemplo, en secuestros, tráfico y explotación sexual.
  2. Prevención de amenazas específicas y actuales de terrorismo.
  3. Localización o identificación de una persona que haya cometido un delito grave de terrorismo, tráfico y explotación sexual, asesinato, secuestro, violación, robo con armas, participación en un grupo organizado y delitos medioambientales.

El escepticismo de determinados grupos ante estas aplicaciones es comprensible teniendo en cuenta el gran número de falsos positivos que se dan en identificación facial en vivo. Si a eso le añadimos la cantidad de delitos recogidos en el tercer punto, casi parece que se da luz verde en general a cualquier uso en investigaciones policiales.

El esfuerzo que han hecho los Estados para evitar que se prohíba la IA en investigaciones policiales ha sido más que notable. Quizás para estos usos en materia penal se debería articular una legislación concreta, como ocurre con el uso de datos personales.

Sea como fuere, podemos considerar el acuerdo como un gran éxito, dado que los derechos fundamentales siguen siendo de obligado cumplimiento. Y los ciudadanos, independientemente de que su uso esté prohibido o no, podrán recurrir a los tribunales cuando se sientan desprotegidos. 

Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada

Este artículo fue publicado originalmente en The Conversation. Lea el original.

FUENTE: eleconomista

Artículo anterior¿Cuáles son los beneficios de la NOM 37 la Ley del home Office que entró en vigor en diciembre?Artículo siguiente Necesario modificar Ley de Protección Civil en cuanto a pirotecnia: Antonio Zapata
OTRAS NOTICIAS
Abogados de Caro Quintero denuncian aislamiento extremo y violaciones a sus derechos en prisión de NY
¿Cuánto te Costará el Regreso a Clases? Precio de Útiles Escolares para Ciclo Escolar 2025-2026
A consulta la Reforma Electoral: CSP. Rechazan a Gómez, ¿quieren a Ugalde?, cuestiona
Arranca Feria de Afores 2025; habrá nueva regulación sobre lavado de dinero en el SAR: SHCP
Mal de muchos…
Sheinbaum designa a Omar Reyes como el nuevo titular de la UIF
DOCTORADO HONORIS CAUSA POR UNA LABOR HUMANÍSTICA
Migrantes temen deportación tras recibir correos electrónicos en Estados Unidos
Hacienda anuncia emisión de bonos para fortalecer la posición financiera de Pemex y lo más relevante del día
Fiscalización agresiva: Su impacto en la legalidad de las resoluciones fiscales
Avala TEPJF el triunfo de 15 juzgadores que no cumplen con el promedio requerido
DOCTOR RAFAEL CERVANTES LEBRIJA EL ABOGADO QUE LITIGA… Y QUE TAMBIÉN AYUDA
La oposición pelea sin éxito en el Congreso debatir sobre el caso de Adán Augusto y el narcotráfico en Tabasco
Nissan anuncia el cierre de una de sus plantas en México en medio de los aranceles de EE.UU.
Lula da Silva habla con Sheinbaum sobre ampliar la relación comercial Brasil-México ante el actual contexto de incertidumbre
¡Aún sin reforma fiscal! Se prevén cambios de la Ley de Aduanas para 2026
Evitamos el aumento de aranceles y logramos 90 días para construir un acuerdo: Sheinbaum
POR SÉPTIMO AÑO CONSECUTIVO RAFAEL CERVANTES LEBRIJA ES ELEGIDO COMO EL MEJOR ABOGADO EN MATERIA LABORAL DE MÉXICO
Barra mexicana y Facultad de Derecho de Sandford respaldan pausa a reforma de telecomunicaciones
¿Adán Augusto saldrá de su escondite? Esta es la fecha de su posible reaparición en el Senado
Abstencionismo, movilización política y fraude: Fantasmas de la elección judicial
Los Sistemas Constitucionales: Diseño, Funciones y Resultados
Gobierno demandará al abogado de Ovidio Guzmán por difamación
Cambiar a los jueces no es suficiente. Lo urgente es cambiar cómo funciona el Estado.
Sin avanzar, regulación del uso de Inteligencia Artificial

SECCIONES

- Galardonados
- Metodología

INTERÉS

- Vocabulario legal
- Responsabilidad social
- Glosario

OTROS

- Aviso de Privacidad
- Blog
- Videos

SECCIONES

- Galardonados
- Metodología

INTERÉS

- Vocabulario legal
- Responsabilidad social
- Glosario

OTROS

- Aviso de Privacidad
- Blog
- Videos

© Tops los Mejores Abogados 2020-2025 Creado y Optimizado por ZdPublicidad