Viruji

Inteligencia artificial probada por el Parlamento Europeo

Alejandro Ramírez | El concepto de «riesgo» se ha convertido ahora en una parte central del debate sobre la Inteligencia Artificial: por un lado vemos peticiones firmadas por empresarios y científicos que incluso advierten de un supuesto riesgo de extinción, y por otro tenemos la posición más tranquila de las instituciones europeas, que llevan años preparando […]

Alejandro Ramírez | El concepto de «riesgo» se ha convertido ahora en una parte central del debate sobre la Inteligencia Artificial: por un lado vemos peticiones firmadas por empresarios y científicos que incluso advierten de un supuesto riesgo de extinción, y por otro tenemos la posición más tranquila de las instituciones europeas, que llevan años preparando una ley para regular el sector, basada íntegramente en el concepto de riesgo.

La palabra «riesgo» es central en ambos contextos, pero con significados muy diferentes. El primer enfoque es el de una asociación estadounidense llamada «Centre for AI Safety», que ha lanzado una petición según la cual «mitigar el riesgo de extinción que plantea la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

El documento fue firmado por algunos de los científicos más respetados que trabajan en el campo. La votación final se espera antes de las elecciones europeas de 2024.

Si bien hay diferencias entre las propuestas de las tres instituciones europeas, el elemento que no está en entredicho es la estructura general de la ley: no será la tecnología de IA la que se regulará, sino sus aplicaciones. Estos estarán sujetos a diferentes niveles de escrutinio, en función del riesgo que supongan para los valores y derechos fundamentales de los ciudadanos europeos.

Los riesgos contemplados por la legislación europea no son hipotéticos o de largo plazo, como una presunta extinción, sino concretos y con efectos inmediatos. Aquí hay un ejemplo. Imaginemos un algoritmo encargado de examinar las solicitudes de una hipoteca o el que selecciona las hojas de vida de los candidatos a un puesto de trabajo: por ley no está permitido discriminar por motivos de género, etnia o religión.

Las consecuencias de los errores en este sentido pueden, de hecho, dañar tanto a los individuos como a la sociedad en su conjunto. O, nuevamente, imagine métodos automáticos de vigilancia masiva o persuasión encubierta. ¿Cómo mitigar este tipo de riesgo, menos sensacional que el «existencial», pero más concreto e inmediato, y cómo regular un sector que cambia tan rápidamente, sin obstaculizar su desarrollo?

Los contextos en los que se utilizan las herramientas de IA se dividen en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Cada uno implicará diferentes obligaciones legales para el operador.

Los usos de la IA que estén en conflicto con los valores fundamentales de la UE se clasificarán como «inaceptablemente riesgosos» y estarán prohibidos, y esto también incluirá el reconocimiento facial con cámaras de vigilancia en lugares públicos. Los sistemas clasificados como de “alto riesgo”, por su parte, serán todos aquellos que tomen decisiones en sectores que puedan vulnerar derechos fundamentales, por ejemplo el de acceso igualitario a servicios en el ámbito sanitario, educativo, financiero y jurídico.

Estos sistemas no se consideran “indeseables”, pero se reconoce la necesidad de “supervisión” por parte de las autoridades y, por tanto, existirán obligaciones de transparencia y control. En cuanto a los sistemas de IA de «riesgo limitado», estos solo tendrán que cumplir con requisitos mínimos de transparencia, destinados a permitir que los usuarios tomen decisiones informadas.

Por ejemplo, los usuarios siempre deben estar informados cuando interactúan con un agente inteligente en línea o cuando una máquina ha creado contenido. Estas consideraciones son esenciales para poder convivir en seguridad con nuestras máquinas inteligentes y son muy diferentes de los riesgos evocados, pero nunca descritos en detalle, por las diversas peticiones que circulan en muchos medios y en la web.

El más reciente, que habla de mitigar el riesgo de extinción, no explica en modo alguno cómo es posible llegar a tal evento con la tecnología que estamos desarrollando actualmente y, por lo tanto, deja una sensación de ansiedad generalizada, sin proponer ningunas acciones concretas para mitigar el supuesto riesgo. El paso dado por el Parlamento Europeo es mucho más concreto y será mucho más útil que una alarma genérica.

TE RECOMENDAMOS

ÚNETE A NUESTRO BOLETÍN