El hito del Parlamento Europeo: Hacia la primera regulación de la Inteligencia Artificial
IA

El pasado jueves 14 de junio de 2023, la Unión Europea dio un paso al frente y se consolidó como la primera organización que se ha atrevido a regular y votar favorablemente el primer proyecto legislativo sobre Inteligencia Artificial (IA) tras ser propuesto en abril de 2021, por la Comisión Europea, el primer marco regulador en la materia.

Dicha versión preliminar de la norma será ahora negociada con el Consejo de la Unión Europea, así como con todos y cada uno de los estados miembros de la organización como paso previo a convertirse en Reglamento, con el fin de poder matizar, mejorar y adaptar el mismo en la medida de lo posible para que ésta sea realmente aplicable y no tenga grandes lagunas jurídicas.

Es bien sabido que, desde hace varios años, la Inteligencia Artificial, que fascina a unos e impone y asusta a otros, ha experimentado un crecimiento exponencial que parece no tener fin. Precisamente, este rápido crecimiento también ha suscitado enormes preocupaciones sobre el uso ético y responsable de esta tecnología.

Lo cierto es que, el hecho de que la mayor parte de los legisladores del mundo no se hayan atrevido a legislar una materia como lo es la IA, no parece sorprender a nadie; y es que, ¿por dónde se empieza a legislar un campo que se nos escapa; que crece constantemente?

No obstante, intuyendo la magnitud de la IA, la Unión Europea ha comprendido que, pese a lo anterior, una normativa era cada vez más necesaria.

¿Cuáles eran los principales problemas a los que se quería dar regulación?
¿Cómo se han redactado en el borrador?

Es necesario remarcar que el objetivo principal de esta legislación es promover la innovación y el crecimiento sostenible al tiempo que se salvaguardan los derechos fundamentales de los ciudadanos europeos. Por dicho motivo, la Legislación tratará de garantizar que la IA se use de manera compatible con la privacidad, no discriminación y la transparencia, estableciendo reglas claras y estándares éticos.

Los mayores peligros asociados a la IA y en los que la UE se ha basado, son los siguientes:

  • La manipulación de la información, pues la IA puede ser usada para crear información falsa o engañosa en perjuicio de unos y en favor de otros.
  • El impacto en la toma de decisiones humanas, pudiendo la sociedad llegar a un punto en el que dependa de manera excesiva de la IA, incluso a la hora de tomar decisiones relevantes.
  • Riesgos existenciales y seguridad a largo plazo: según hemos comentado, la IA crece exponencialmente, lo que, según algunos expertos del sector podría suponer un riesgo significativo existencial, como la “superinteligencia artificial que pueda actuar en contra de los intereses humanos”.
  • Seguridad y privacidad: la IA no es infalible contra los ataques cibernéticos pudiendo ser objeto de hacking lo cual comprometería la seguridad y privacidad de los usuarios.
  • Sesgo y discriminación: es relativamente sencillo incorporar un sesgo inherente a los datos usados para el entrenamiento de la IA, lo que supondría, por ejemplo, que una IA pudiera tomar decisiones discriminatorias, a la hora de contratar o seleccionar candidatos para un puesto, basándose en sesgos de genero o raciales.

En cuanto a los principales aspectos de la regulación para tratar de paliar lo anterior, son los siguientes:

  • Evaluación del nivel de riesgo de las aplicaciones de IA en función de sus características, de tal manera, que diferencia tres tipos de riesgo:
    • Riesgo limitado: en esta categoría se podrían englobar todas aquellas aplicaciones que se consideran de bajo riesgo, impactando de forma limitada en los derechos fundamentales, privacidad y seguridad del usuario. Se incluirían, por ejemplo, traductores y asistentes de voz.
    • Alto riesgo: se engloban aquellas aplicaciones que acarreen un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas. Para que dichos sistemas de IA estén permitidos en el espacio europeo se han de cumplir determinados requisitos obligatorios y han de ser sometidos ex ante a una evaluación. El Anexo III de la normativa establece cuales son los ámbitos en los que los sistemas de la IA serán de alto riesgo: Identificación biométrica y categorización de personas físicas; gestión y funcionamiento de infraestructuras esenciales; educación y formación profesional; empleo, gestión de los trabajadores y acceso al autoempleo; acceso y disfrute de servicios públicos y privados esenciales; asuntos relacionados con aplicación de la ley; gestión de la migración, asilo y control fronterizo; así como, administración de justicia y procesos democráticos.
    • Riesgo inaceptable: se engloban aquellos sistemas, que figuran en el titulo II y abarcan aquellas IA que se consideran inaceptables por ser contrarias a los valores de la UE, por ejemplo, porque violan derechos fundamentales. Al respecto, la normativa regula que “Las prohibiciones engloban aquellas prácticas que tienen un gran potencial para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos vulnerables concretos, como los menores o las personas con discapacidad, para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas”. Un ejemplo de practica prohibida sería un sistema de puntuación social (legal en China), que asigna a las personas una puntuación de salud en función de su comportamiento, asignándoles “castigos o recompensas” y justificándolo en “vigilar los potenciales riesgos de desestabilidad social”.
  • Requisitos de transparencia, obligando al sistema a ser transparente y capaz de proporcionar explicaciones sobre sus decisiones.
  • Protección de datos y privacidad, estableciendo salvaguardas para garantizar que los datos se usen de manera ética y se respete la privacidad de la sociedad.

 

En relación con esta regulación, lo cierto es que existen posturas dispares; están aquellos que creen firmemente en la necesidad de la regulación de un campo tan dinámico y del que queda tanto por descubrir, y, por ende, que se nos puede “escapar”, y están aquellos que, precisamente, alegando el dinamismo de la materia y su pronto cambio, piensan que cualquier norma que se regule ahora solo va a generar un freno en el mercado, una mayor fragmentación del mismo (en vez de conseguir la unidad), una mayor competencia entre empresas consolidadas y aquellas que se lanzan al mercado en el seno de la IA, y, en definitiva, que consideran que cualquier norma regulatoria quedará obsoleta más pronto que tarde.

Lo cierto es que ambas posturas pueden ser ciertas y coexistir a la vez; las consecuencias se irán apreciando poco a poco y las conclusiones serán obtenidas a medida que dicha normativa sea aplicada, debiendo el legislador ir un paso por delante: tratando de regular cualquier laguna que se perciba, legislando con normativa clara y comprensible que no de lugar a dudas e interpretación (lo cual se prevé altamente complicado).

Y tú, ¿Qué piensas?

También te podría interesar...