O Parlamento da UE aproba regular a intelixencia artificial e prohibir os sistemas máis perigosos

Varios meses despois de que a China primeiro e os Estados Unidos despois desenvolveran as primeiras regulacións ao respecto da intelixencia artificial, a Unión Europea fai o propio cunha lexislación cuestionada por entidades en defensa dos dereitos humanos.
O lexislativo do bloque comunitario. (Foto: Mathieu Cugnot / Parlamento da UE)
photo_camera O lexislativo do bloque comunitario nas votacións decorridas na sesión da cuarta feira. (Foto: Mathieu Cugnot / Parlamento da UE)

Trátase da “primeira norma global e vinculante do mundo para unha intelixencia artificial (IA) fiábel”, e unha referencia “mundial”, asegurou a cuarta feira o comisario de Mercado Interior da Unión Europea (UE), Thierry Breton, celebrando a aprobación por parte do Parlamento do bloque comunitario da Lei de Intelixencia Artificial, que fica pendente só do visto e prace dos Estados membros.

Unha vez promulgada, entrará en vigor en 20 días, mais as súas disposicións non se aplicarán de forma íntegra até tres anos despois, acabando cun periplo dun lustro desde que foi suxerida por primeira vez en 2019 unha regulación grazas ao acordo de decembro entre os equipos negociadores dos membros da UE e do lexislativo sobre a normativa.

A lexislación céntrase nos riscos da IA, engadindo regulacións máis estritas a medida que este medra. Nas cualificadas de alto risco, como os programas vinculados a infraestruturas críticas, dispositivos médicos, eleccións ou avaliación da capacidade crediticia, exixirase brindar información detallada ás persoas usuarias, o uso de fontes de datos contratadas e o compromiso de que se garantirá o respecto aos dereitos fundamentais.

Ao respecto das aplicacións de baixo risco, como os sistemas para recomendar contidos, as compañías decidirán se aplican voluntariamente os requisitos definidos polo bloque comunitario.

Neste sentido, aborda a IA xerativa -a dirixida a crear contidos-, definindo que as persoas responsábeis do desenvolvemento dos modelos de IA con fins xerais, como ChatGPT, terán que entregar un resumo dos datos usados para adestrar estes sistemas, que necesitan un volume masivo de información.

Ao tempo, obriga a que imaxes, vídeos ou sons creados por medio de IA de persoas, lugares ou acontecementos existentes sexan etiquetados como manipulados artificialmente.

Xa no tocante aos modelos de IA máis potentes, que suscitan “riscos sistémicos” e poden provocar “accidentes graves ou ser utilizados indebidamente para ataques cibernéticos de grande alcance”, así como divulgar “nesgos daniños”, admite a norma, o bloque comunitario require que avalíen e mitiguen os riscos, inclúan medidas de ciberseguridade, comuniquen a enerxía que usan os modelos e trasladen información de calquera incidente de gravidade, como a morte dalgunha persoa. Isto afectaría a modelos como GPT4 de OpenAI ou Gemini de Google.

Usos prohibidos -con excepcións-

Nos casos nos que Bruxelas considera que o risco da IA é “non asumíbel”, esas prácticas ficarán prohibidas seis meses despois da entrada en vigor da lei. Isto afecta ao uso non dirixido de imaxes faciais de internet ou circuítos fechados de televisións para crear bases de datos orientadas ao recoñecemento facial, ao recoñecemento de emocións no traballo ou nos centros educativos, aos sistemas de puntuación social, á IA que manipula o comportamento ou utiliza vulnerabilidades persoais, á vixilancia policial preditiva en certas condicións ou á identificación biométrica.

Así e todo, recolle varias excepcións para permitir que as forzas de seguridade utilicen estes últimos sistemas, requirindo autorización xudicial ou administrativa para o rastrexo policial de caras de persoas en tempo real nos espazos públicos en situacións como a busca de desaparecidas, explotación sexual, tráfico de seres humanos ou a prevención de ataques terroristas. Para usar estes programas con posterioridade, tamén exixe un aval da Xustiza e que se vencelle cun delito penal.

Os incumprimentos desta norma poderán implicar multas de até 35 millóns de euros ou 7% da facturación xeral dunha compañía.

En paralelo, impulsarase unha Oficina Europea de IA, que se replicará en cada Estado membro e onde se poderá dirixir a cidadanía co fin de denunciar se é vítima dalgunha violación da lei.

Sexa como for, a lexislación está marcada polas inquedanzas das empresas estadounidenses -canda as chinesas as principais do planeta neste eido-, que en xeral “apoiaron a necesidade de regular a IA e ao mesmo tempo premeron para garantir que as regras funcionen ao seu favor”, explicou a axencia AP.

A pesar da celebración de Breton, Amnistía Internacional sostivo que, na práctica, Bruxelas “deu luz verde á vixilancia dixital distópica nos 27 Estados membros da UE, sentando un precedente devastador a nivel mundial” ao non prohibir sen excepción o recoñecemento facial en vivo. Isto supón “unha enorme oportunidade perdida para deter e previr danos colosais aos dereitos humanos, o espazo civil e o Estado de dereito que xa están ameazados na UE”.

Pola súa parte, a Oficina do Alto Comisionado das Nacións Unidas para os Dereitos Humanos solicitara medidas para salvagardar os dereitos e liberdades fundamentais da IA, facendo fincapé no seu potencial para elaborar ferramentas de censura e control social ou consolidar réximes autoritarios.

Preocupación polos efectos nos dereitos humanos

O texto posúe “enormes fallas”, denunciou Daniel Leufer, analista de políticas da entidade en defensa dos dereitos dixitais Access Now, no contexto das criticas de varios grupos de dereitos humanos sobre as exencións que contempla a norma e as súas carencias, como a falta de protección con respecto aos sistemas de IA usados nos controis migratorios e nas fronteiras.

A Plataforma para a Cooperación Internacional sobre Migrantes Indocumentados e a Rede para o Monitoramento da violencia na fronteira trasladara a preocupación polas grandes bases de datos biográficos e biométricos de persoas migrantes da UE, que podería chegar a compartir con terceiros países, en liña coa súa política de externalización da xestión migratoria.

Outra das preocupacións de entidades de dereitos humanos son as vías estabelecidas no documento para que as empresas non clasifiquen como de alto risco as súas aplicacións ou a falta de transparencia arredor dos datos empregados para adestrar estes modelos, o que causa riscos ao constituír as estruturas básicas a partir das que estas compañías crean servizos coa IA como base. Tamén ficaron sen concretar na norma da UE os mecanismos a través dos que se protexerán os dereitos de autor.

Comentarios