Hoy es 15 de noviembre
GRUPO PLAZA

opinión

La era de la inteligencia artificial vs. la inteligencia humana

La IA comporta retos y riesgos para los que los ordenamientos jurídicos vigentes no pueden dar una respuesta adecuada en su totalidad

28/04/2023 - 

VALÈNCIA. La inteligencia artificial constituye un paradigma tecnológico que está cambiando y cambiará en mayor medida el mundo en el que vivimos, con un potencial disruptivo inmenso en todos los sectores y ámbitos de nuestra vida. Su valor y bondades para el ser humano son incuestionables, si bien, comporta igualmente retos y riesgos que deben ser adecuadamente identificados y gestionados. No se trata de una tecnología ni nueva ni desconocida, en la medida que ya el origen de la misma se sitúa a mediados del siglo pasado y, en particular, en la denominada Conferencia de Dartmouth -un encuentro científico celebrado en el Dartmouth College de Hanover, New Hampshire en 1956-, y en uno de sus promotores, John McCarthy, considerado el padre de la IA, con permiso de Alan Turing unos años antes.

Sin embargo, es ahora cuando la inteligencia artificial (IA) está eclosionando en su despliegue y aplicación debido, principalmente, a la mayor capacidad de computación y almacenamiento, la mayor disponibilidad de datos, el aumento de sus capacidades, mejora de la conectividad y el incremento de su interacción con otras tecnologías y elementos, y esto simplemente acaba de empezar. En mi opinión, estamos todavía en una fase embrionaria tanto del desarrollo, despliegue y aplicación de esta tecnología como de la ética y del derecho que debe regularla.

Inteligencia artificial fue la palabra o, más bien, la expresión compleja del año 2022 para la FundéuRAE -fundación promovida por la Agencia EFE y la Real Academia Española-. Y sin duda, lo está siendo durante este primer cuatrimestre de 2023. Pero, ¿qué es la inteligencia artificial? No existe en la actualidad un consenso en su definición, ni a nivel científico, ni ético ni jurídico. Las definiciones más sencillas van desde la inteligencia propia de una máquina, pasando por la inteligencia emulada por máquinas o sistemas que procesan datos y generan decisiones en base a los datos analizados, hasta simplemente lo que aún no se ha logrado. Como atributo humano ¿puede existir una inteligencia artificial? Es más, ¿el aprendizaje automatizado o los sistemas expertos son realmente una manifestación de la inteligencia artificial o de la inteligencia humana que los ha creado?

Dejando a un lado estas cuestiones que evidencian su complejidad y los distintos posicionamientos que pueden adoptarse sobre la misma, la IA, en su concepción más general y extendida, ha pasado a acaparar titulares y noticias diarias en medios de comunicación, en especial, las relativas a sistemas de IA generativos y, en particular, en relación con el que, quizás, es hoy el más conocido, ChatGPT y sus distintas versiones, el cual alcanzó los 100 millones de usuarios activos mensuales en enero, prácticamente dos meses después de su lanzamiento, lo que la convirtió en la aplicación de consumo de más rápido crecimiento de la historia.

La cuestión es que muchos de estos titulares pueden resultar muy inquietantes, generar confusión e incluso temor en el público en general y distorsionar no sólo la percepción social sino incluso política sobre la IA. Me refiero a titulares relativos a sistemas inteligentes con supuesta consciencia y/o conciencia, que contratan abogados para defender sus derechos, que despiden a humanos, que averiguan nuestras contraseñas en menos de un minuto, que programan código malicioso, que suplantan nuestra imagen y/o nuestra voz para cometer fraudes, que desarrollan habilidades inesperadas, que supuestamente pueden estar alcanzando ya el nivel de la inteligencia humana, que son capaces de matar a un ser humano a varios kilómetros de distancia o que pueden tener como objetivo nuestra aniquilación como raza. Sin duda, son titulares inquietantes para cualquier persona y que generan alarma social, pero considero que en su gran mayoría se alejan sustancialmente de la realidad que parecen reflejar y de la IA que es objeto de desarrollo, despliegue y aplicación general en la actualidad. No obstante, la IA debe abordarse con el respeto y responsabilidad que exige la misma, su avance imparable y sus correlativos retos y riesgos.

Protagonismo mediático y social

El ser humano se ha caracterizado por convertir en realidad lo que en su día era algo solo imaginado en la ficción, desde cohetes que podrían llegar a la luna, robots con los que mantener una conversación, vehículos de conducción plenamente autónoma o taxis voladores. La literatura o el cine nos mostró previamente una ficción que, años después, el hombre ha convertido en realidad, evidenciando así su grandeza e inteligencia. La cuestión es si podemos llegar a un punto donde la capacidad creadora e innovadora del hombre se rija más por la estupidez que por la inteligencia humana, como la ciencia ficción también nos ha ya anticipado en algún caso e incluso la realidad nos ha evidenciado.

Dejando a un lado estas cuestiones, en los últimos meses, el protagonismo mediático y social relacionado con la IA lo está acaparando la denominada 'IA generativa' y, muy especialmente, un chatbot inteligente conversacional como ChatGPT que no es, ni más y ni menos que esto, pero con capacidad generativa y de autoaprendizaje mediante instrucciones humanas y con un potencial disruptivo enorme en todo tipo de ámbitos y sectores de nuestra vida. Ello constituye un ejemplo simple de como la IA más sencilla o 'débil', esto es, más automatizada y carente de autonomía y capacidad real de improvisación, es capaz de sustentar una absoluta revolución alrededor de la misma.


Durante las últimas semanas, a su vez, se han sucedido también los titulares y noticias sobre los supuestos riesgos relacionados con esta aplicación, especialmente las asociadas con sesgo, falta de fiabilidad, uso malintencionado, tratamiento ilícito de datos personales, posible infracción de  derechos de autor o eliminación masiva de puestos de trabajo en todo tipo de sectores (arte digital, videojuegos, programación, música o periodismo, entre otros), que han motivado reacciones inmediatas y, en algunos casos, a mi juicio, algo improvisadas, por parte de gobiernos, autoridades y expertos, especialmente respecto de la necesidad de su regulación. ChatGPT ha acaparado el protagonismo mediático y público y ha conseguido que el debate internacional sobre el objeto y alcance de la regulación de la IA se está focalizando principalmente en él en este instante, lo que no debe hacernos olvidar que tenemos muchos otros sistemas de esta naturaleza ya en el mercado y otros sistemas de IA más avanzada que suscitan retos y riesgos mucho más elevados.

El pasado 22 de marzo se publicó una carta abierta para la suspensión temporal del entrenamiento de sistemas de IA más potentes, suscrita por un grupo de expertos internacionales y en la que solicitan a todos los laboratorios de IA para que detengan inmediatamente, durante al menos 6 meses, el entrenamiento de sistemas de IA más potentes que GPT-4. Considero que es una petición inatendible por sus destinatarios, si bien, el trasfondo del mensaje debe ser más profundo y no circunscrito a este sistema, al objeto de motivar la necesaria reflexión sobre la IA desde una perspectiva horizontal y global sin más dilación, ya sea más básica o más avanzada. La iniciativa puede ser interpretada de diversas formas y ser cuestionable en distintos aspectos, pero el trasfondo sobre el que se elabora es real, preocupante y no podemos permanecer impasibles. La propuesta se elaboró ante la necesidad de que "los sistemas de IA potentes se desarrollen solo una vez que estemos seguros de que sus efectos sean positivos y sus riesgos manejables". La iniciativa lo considera ineludible ante la "peligrosa carrera" hacia modelos de caja negra impredecibles, cada vez más grandes y con capacidades emergentes.

Transparencia

Los firmantes ponen de manifiesto en la carta que la investigación y el desarrollo de sistemas inteligentes más avanzados requieren que los mismos sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales, bajo marcos de gobierno y con intervención de la autoridad reguladora. Entre los expertos y personalidades del ámbito científico, tecnológico y empresarial que se ha unido a esta iniciativa, destacar a Yoshua Bengio, Andrew Yang, Steve Wozniak, Elon Musk, Stuart Russell, Max Tegmark, Carles Sierra o Ramon Lopez de Mantaras. En este sentido, dejando a un lado este tipo de modelos de IA, tanto la inteligencia artificial actual más básica como la más avanzada en la que ya se está trabajando o la que vendrá en el futuro, exige la creación de marcos éticos, jurídicos y de gobierno vinculantes que aseguren el desarrollo y despliegue de la IA que supuestamente pretendemos, fiable, explicable y segura.

Las reacciones por parte de gobiernos y autoridades tampoco se han hecho esperar. Italia ha bloqueado temporalmente el uso de ChatGPT por los riesgos que comporta para la privacidad y el incumplimiento de la normativa vigente en esta materia, habiendo publicado ya las medidas que OPEN AI deberá cumplir para adecuarlo al marco legal vigente. La Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación frente a la misma por un posible incumplimiento de la normativa y ha propuesto al European Data Protection Board su tratamiento conjunto, para lo que se ha creado ya un grupo de trabajo en su seno. Alemania se ha sumado a estas reacciones y acaba de abrir ahora una investigación.  

 Joe Biden (Foto: REUTERS/BRENDAN MCDERMID)
Por su parte, EE UU y China han anunciado nuevos pasos para su regulación. Biden ha propuesto un plazo de dos meses para recoger ideas sobre cómo regular este tipo de sistemas para evitar efectos no deseados de los mismos y se ha abierto el debate sobre su posible certificación antes de su lanzamiento, aunque no sea calificados inicialmente de alto riesgo. Del mismo modo, China también ha propuesto un proyecto de medidas para regular los sistemas de IA generativa al objeto de requerir evaluaciones de seguridad antes de su lanzamiento al mercado, correspondiendo a los proveedores la responsabilidad sobre la legitimidad de los datos utilizados para entrenar sus sistemas inteligentes, que pueden incluir desde datos personales a contenidos protegidos por propiedad intelectual o industrial, así como la exigencia de medidas para evitar el sesgo en su diseño como en su entrenamiento. Japón y UK han presentado recientemente su hoja de ruta reguladora.

La Unión Europea (UE) pretende liderar la regulación de la IA a nivel mundial con su Propuesta de Reglamento de Inteligencia Artificial en tramitación -Ley de Inteligencia Artificial-, si bien, sistemas como ChatGPT no fueron inicialmente contemplados en dicha propuesta, la cual se focalizó en la prohibición de determinados sistemas por considerados de riesgo inadmisible y en la regulación minuciosa de los sistemas considerados de alto riesgo conforme a la misma, dejando el resto  -los de riesgo limitado y bajo- a la autorregulación de la industria, salvo determinadas obligaciones de transparencia e información para determinados sistemas, lo cual pretende ser corregido ahora en su tramitación ante la alarma social generada, colándose en los debates legislativos actuales y protagonizando en buena medida los mismos. Sin duda, la situación debe hacernos pensar si vamos en la dirección correcta ante el potencial impacto que ha evidenciado un sistema como el mencionado y si la estrategia reguladora es la adecuada en base a lo comentado.

Principios y normas éticas

La versión en tramitación de la norma europea no exige principios y normas éticas esenciales como seguridad, control y supervisión humana, explicabilidad, transparencia o fiabilidad a los sistemas inteligentes, salvo aquellos considerados de alto riesgo, quedando fuera de su regulación, por ejemplo, los chatbots inteligentes. La propuesta ni tan siquiera exige un análisis de riesgos previo sobre cualquier sistema inteligente para su clasificación de manera previa a su lanzamiento al mercado, ni evaluaciones de impacto, cuanto menos, en los derechos fundamentales de la persona.

En este contexto, no debemos permitir que esta cierta confusión, distorsión y protagonismos a los que me he referido anteriormente nos desvíe de lo que debe ser el objeto del debate y de una necesaria y oportuna reflexión ahora y sin más demora, que es abordar la IA de una manera global, “inteligente” y desde un enfoque de riesgos, y tanto la que es objeto de mayor desarrollo, despliegue y aplicación en la actualidad, como la IA más avanzada, con mayores capacidades y supuesta autonomía, y en la que ya se está investigando y que podría llegar a ser una realidad sin disponer de marcos éticos, jurídicos y de gobierno que la rijan.


En relación con la percepción y temor sobre la IA que pueden generar algunos de los titulares a los que he hecho referencia anteriormente, los sistemas inteligentes actuales no piensan, no entienden, no tienen consciencia ni conciencia, no sienten, no tienen emociones, no pueden discernir entre lo bueno y lo malo, pero si emulan, pueden no ser perfectos y pueden contener omisiones y errores en su diseño, programación, conectividad y funcionamiento. Parte de la comunidad científica vislumbra para el futuro una IA más avanzada o fuerte, con posible autonomía y capacidad de improvisación, e incluso con posible capacidad de aprender, razonar, entender, aplicar sentido común, comprender la relación de causalidad y ser capar de realizar las mismas tareas que un ser humano. Incluso, una parte de la misma habla de un momento futuro en el que se podría alcanzar la singularidad tecnológica, con una super IA que superaría al ser humano. En cuanto al momento en el que esto podría producirse hay quien lo cifra en 10 años, otros en 40 y otros 90. Para otros esto nunca llegará a producirse.

Dejando a un lado las bondades y el valor que la IA supone para el ser humano, el principal debate internacional en este momento a nivel científico, ético y jurídico debería centrarse en sus retos y riesgos, tanto de la actual como más avanzada que pueda ser una realidad en breve y, de manera consecuente, en la necesidad de su regulación y, en tal caso, el objeto, alcance y técnica para acometer ésta. La IA comporta retos y riesgos para los que los ordenamientos jurídicos vigentes no pueden dar una respuesta adecuada en su totalidad, en la medida que fueron creados en un contexto económico, social y tecnológico muy distinto.

Regulación

La regulación de la IA, en mi opinión, es una cuestión de oportunidad y de necesidad. La ética es absolutamente necesaria, pero no es suficiente si no se convierte, a su vez, en una exigencia jurídica.  El momento de regular es ahora. A nivel europeo, por lo que se refiere al Reglamento IA de la UE, ni tan siquiera se está considerando en su regulación una posible IA más avanzada o fuerte -en el caso de que fuera técnica, ética y jurídicamente factible crear este tipo de sistemas si lo permitimos-. Esto es, sistemas inteligentes con mayor autonomía y capacidad de improvisación. La versión en tramitación se ha centrado en una IA más básica o débil, automatizada y mecánica, carente de una autonomía real y capacidad de improvisación. 

Adicionalmente al mismo, la Comisión Europea ha propuesto dos nuevos instrumentos jurídicos adicionales, la Propuesta de Directiva sobre la adaptación de las normas de responsabilidad civil extracontractual a la IA y la Propuesta de Directiva sobre la responsabilidad por productos defectuosos, que igualmente considero que constituyen una intervención legislativa necesaria y oportuna, si bien, las propuestas son de mínimos, en la medida que desechan el establecimiento, por ahora, de una responsabilidad objetiva y la exigencia de seguros obligatorios en relación con el uso de determinados sistemas inteligentes de alto riesgo, derivando la adopción de estas posibles medidas a su futura revisión y limitándose a regular determinadas medidas para facilitar la prueba en determinados contextos y con sujeción a distintos condicionantes, y ello debido a la presión de la industria.


En mi opinión, la IA debe ser regulada desde un enfoque global y bajo técnicas legislativas distintas y adaptadas a las nuevas realidades, sólo en lo necesario y mediante la combinación adecuada del denominado hard law (obligatorio y vinculante) y soft law (códigos de conducta), mediante instrumentos jurídicos flexibles, dinámicos, adaptativos y evolutivos, y basados en la ética, la seguridad y el respeto a los derechos fundamentales. Y hacerlo, considerando todos los intereses en juego, no es una tarea fácil. De nuevo, se pone de manifiesto la dificultad para alcanzar el pretendido equilibrio, en constante tensión, entre innovación, avance tecnológico, competitividad, accesibilidad, seguridad, confianza y respeto de los derechos fundamentales. En este sentido, recordar que los derechos fundamentales deben prevalecer sobre cualquier tecnología como ya recogió el Tribunal de Justicia de la Unión Europea, de 13 de mayo de 2014, en el Asunto C-131/12 (Coteja vs Google).

Como conclusión, conforme vengo sosteniendo en mis investigaciones, publicaciones y posicionamiento sobre la IA durante estos últimos años, su regulación proactiva (y también reactiva en aspectos como responsabilidad civil) es una necesidad, desde una óptica horizontal y un enfoque de riesgos, si bien, no comparto totalmente la opción inicial elegida por la Comisión al proponer la AI Act, prohibiendo determinados sistemas y regulando únicamente los de alto riesgo, dejando de lado el resto y derivándolos a su posible autorregulación corporativa o sectorial, incluida su seguridad o resiliencia. En tal caso, salvo que se incorporen finalmente en su tramitación, quedarían fuera de su objeto y alcance inicial, chatbots inteligentes y otras herramientas de IA, y sin sujeción a normas éticas esenciales como el control y supervisión humana, seguridad, explicabilidad o fiabilidad, que si se contemplarían, al menos parcialmente, respecto de los de alto riesgo.

Regulación

La regulación de la IA no puede construirse sobre la improvisación sino sobre la reflexión, sobre tendencias más que en novedades, y desde una perspectiva global, horizontal y de riesgos, para crear instrumentos regulatorios adaptativos y flexibles, pero que consideren no sólo la IA más básica sino también la más avanzada y con mayores capacidades, en la que ya se está investigando y trabajando, y que puede ser una realidad tanto hoy como mañana.

 Y desde luego, no quiero vivir tanto en la era de la inteligencia artificial sino de la inteligencia humana, y que sea ésta la que determine la automatización e IA con la que la humanidad desea convivir como medio para conseguir sus objetivos, satisfacer sus necesidades, contribuir a resolver sus grandes problemas y garantizar su existencia. En este sentido, recordar que la tecnología debe ser un medio para el ser humano y no un fin en sí mismo, que el mayor riesgo no es la tecnología sino el uso que se haga de ella en atención especialmente a sus capacidades, y que ni la IA es perfecta ni la inteligencia humana que emula y/o de la que emana lo es, ni en su diseño, ni en su programación ni en su funcionamiento.

José Manuel Muñoz Vela es abogado especialista en Derecho Tecnológico y Digital, doctor en Derecho y director jurídico de Adequa Corporación

Noticias relacionadas

next

Conecta con nosotros

Valencia Plaza, desde cualquier medio

Suscríbete al boletín VP

Todos los días a primera hora en tu email


Quiero suscribirme

Acceso accionistas

 


Accionistas