Hoy es 4 de octubre
Considerada por algunos expertos como “la última invención”, ya que sería la metasolución de todos los problemas, es muy probable que la inteligencia artificial (IA) sea uno de los avances tecnológicos más disruptivos que ha visto la humanidad en toda su historia, comparable a la máquina de vapor, el ordenador personal o internet.
La IA tiene, además, la particularidad de provocar al mismo tiempo curiosidad y entusiasmo, pero también inquietud e incluso miedo. Ha sido desde siempre uno de los temas recurrentes en la ciencia ficción y es hoy en día, sin lugar a dudas, la tecnología de moda que todos utilizan y aquella que despierta más dudas en loa aspectos económico, laboral, ético y filosófico.
La reciente irrupción de los modelos de lenguaje extensos (LLM) ha democratizado – aparentemente – el uso de esta herramienta hasta el punto de que sería lícito que el lector se preguntase si se ha utilizado, por ejemplo, para escribir este artículo… por supuesto, la respuesta es que no.
Como con todas las tecnologías digitales, hay que tener en cuenta los riesgos que se introducen con su uso. En este caso concreto, además de las habituales ciberamenazas, se ha de contar con otros más sofisticados que saquen ventaja del proceso de entrenamiento de las redes neuronales para introducir sesgos en el funcionamiento posterior o que permitan recuperar información confidencial o que atente a la privacidad, por personas no autorizadas.
Tanto o más relevantes son los aspectos éticos. Hoy por hoy, ésta es, fundamentalmente, una responsabilidad de quienes implementan la tecnología en las organizaciones, que deben tener en cuenta el impacto que se producirá y que deben limitar su utilización a los usos autorizados por las leyes, en especial por la normativa europea “AI Act”. En el futuro, cuando las IA se aproximen a la AGI (IA general) o la superen y alcancen el nivel de ASI (superinteligencia), la propia IA deberá implementar unos “principios éticos” apropiados a su uso, cosa nada fácil, que constituye toda un área de conocimiento en si misma, que abarca desde la explicabilidad hasta la introducción del equivalente a unas “leyes de la robótica” que garanticen una IA segura.
La IA general y la superinteligencia parecían, hasta hace poco, problemas de un futuro aún lejano, algo de lo que tendrían que ocuparse nuestros hijos o nietos, pero los últimos avances han generado predicciones mucho más cercanas que hablan de una IA general para 2026 y de una superinteligencia en el plazo de cinco o diez años. Quizás sean estas unas predicciones demasiado optimistas, pero también es cierto que, hace diez años, pocos expertos predecían el grado de avance que se ha alcanzado actualmente.
Por último, en los aspectos éticos a vigilar, no debemos olvidar la probable concentración de poder en manos de unos pocos agentes, empresas y gobiernos y el riesgo de desigualdad entre países más avanzados y en vías de desarrollo.
Miguel Ángel Juan Bello, socio director de S2 Grupo