¿La Inteligencia Artificial necesita reglas? La respuesta es sí
Te contamos los riesgos que implica la IA y qué normativas se han aprobado hasta la fecha, para su regulación
En marzo de 2023, más de mil expertos –entre los cuales figuraban el empresario Elon Musk yel cofundador de Apple, Steve Wozniak– firmaron una carta abierta en la que pedían, a los laboratorios, hacer una pausa de seis meses en el entrenamiento de los sistemas de inteligencia artificial.
El documento señalaba que estaban en “una carrera fuera de control para desarrollar e implementar mentes digitales, cada vez más poderosas, que nadie, ni siquiera sus creadores, pueden comprender, predecir o controlar de forma fiable”.
Ciertamente, la IA constituye un terreno prácticamente virgen e inexplorado, en el que encontramos importantes beneficios para la humanidad, sí, pero también riesgos y amenazas, en su mayoría relacionadas con la dejación ética por parte de los humanos.
“En el caso de un mal funcionamiento de la IA, por ejemplo, será bastante difícil diferenciar entre conducta negligente y no negligente. ¿Quién es exactamente responsable si un robot impulsado por IA hace daño a un peatón en un espacio público o comete un error en una cirugía?”, señaló el eurodiputado alemán Axel Voss (PPE), quien se encarga del régimen de responsabilidad civil para inteligencia artificial, en entrevista para el sitio web del Parlamento Europeo.
Por otro lado, la toma de decisiones automatizada puede reproducir divisiones sociales, como la brecha salarial que afecta a las mujeres. Por tanto, entraña la posibilidad de discriminación o de sesgos a la hora de conceder un crédito u ofrecer determinado tratamiento médico, por solo citar un par de casos que resultan decisivos en la vida de una persona.
La obtención, procesamiento y manipulación de masivos volúmenes de datos por la IA también puede tener implicaciones legales sobre los derechos de autor, propiedad industrial, privacidad o protección de datos.
Otros peligros son la pérdida de empleos, el abaratamiento masivo de servicios, la propagación de fake news, la sofisticación de los métodos de phishing y la posibilidad de que los sistemas de IA sean hackeados.
Es por ello que la toma de decisiones de las máquinas necesita ser regulada, de la misma manera en que son reguladas las decisiones humanas.
Y porque con la IA, como explica el eurodiputado español Ibán García del Blanco (S&D), responsable del informe sobre los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías relacionadas:
“Tenemos también la oportunidad de que, mediante sistemas regulatorios de verificación y control públicos, nuestras sociedades acaben siendo más justas y más sostenibles social y medioambientalmente.
“Para asegurar que los avances benefician a toda la sociedad, es necesario un marco normativo acerca de qué principios éticos que deben estar presentes necesariamente en la concepción, el desarrollo, implementación y funcionamiento de esta técnica. Desde el acceso a los datos hasta el control estricto de los resultados. (…) El objetivo es una IA con una perspectiva centrada en los seres humanos”.
En 2023, tras negociaciones extensas y debates intensos, la Unión Europea aprobó la Ley de Inteligencia Artificial, conocida como IA Act.
Aunque su implementación plena no se concretará hasta finales de 2026, marca un avance crucial en la legislación sobre IA, pues intenta equilibrar la seguridad y los derechos humanos con el impulso a la innovación.
Para ello, clasifica la IA según el riesgo que representa, desde el “mínimo” hasta el “inaceptable”.
Sobre esa base, establece prohibiciones para determinadas aplicaciones y requisitos estrictos para otras, en ámbitos donde supone un mayor riesgo para los derechos fundamentales, como la salud, la educación, la vigilancia de fronteras y los servicios públicos. Los sistemas de reconocimiento biométrico y de categorización destacan en este sentido.
Además, IA Act introduce importantes normas sobre transparencia y ética. Así, las empresas tecnológicas deberán notificar a los usuarios cuándo interactúan con un chatbot, sistemas de categorización biométrica o de reconocimiento de emociones.
Estados Unidos, China, Canadá y otros países también han empezado a dar los primeros pasos en la regulación de la IA.
En Cuba, comisiones interdisciplinares de expertos trabajan en la “Estrategia de Desarrollo de la Inteligencia Artificial en Cuba”, aprobada por el Programa Sectorial Industria Cubana del Software e Informatización de la Sociedad, del Ministerio de las Comunicaciones, y liderado por la Universidad de Camagüey Ignacio Agramonte y Loynaz.
Además, nuestro país es firmante de la Recomendación sobre la Ética de la Inteligencia Artificial, de la Unesco.