Toda tecnología parte de un problema para las personas: está creada por personas. Esto acarrea consecuencias para la libertad individual y el progreso colectivo, porque la Inteligencia Artificial (IA) transmite los sesgos de quien crea a quien es atravesado por ella. Y sí, son los hombres blancos de un país muy concreto y los empleados chinos de unas empresas gubernamentales muy concretas los que generan un patrón de comportamiento global. Seis empresas estadounidenses y tres chinas manejan el gran cotarro de la data, con una retahíla de derivadas y sucursales, pero es la visión del mundo de menos de una decena de compañías la que a día de hoy nos atrapa en una forma de entendernos y ver la vida más allá de lo comercial.
Los algoritmos reproducen el mundo en que viven esos grupos de personas. Por tanto, ¿qué mundo convierten en real? ¿Sueñan con ovejas eléctricas? ¿Creen que esos algoritmos no están replicando –con la matemática como bandera, con la ciencia como arma de sumisión– un sistema desigual, racista, con una evidente brecha de género y donde el biorritmo de la compra constante se impone a cualquier otra consideración? La respuesta es sí y se evidencia con una docena de voces expertas y casos reales que quizá ni imagina (las protestas políticas del polvorín de Hong Kong, el reconocimiento facial inválido que está provocando detecciones erróneas e indiscriminadas, profesores que han pasado de ser los más premiados de su región a ser despedidos por un algoritmo, reconocimiento facial como acceso a edificios de personas en riesgo de exclusión) en Sesgo codificado, un documental de 2020 que puede ver en Netflix.
Pero acudamos a la actualidad para pensar el problema. En tiempos de buenismo, la radio pública sueca y la BBC han lanzado (2021) su intento por crear un algoritmo ‘bueno’. No es casual que sean dos corporaciones públicas las que, conscientes del impacto (y frustradas en su intento por mantener una visión crítica de la información), traten de aprovechar la matemática, la ingente cantidad de datos y lo aprendido en el Far West algorítmico para aportar algo socialmente. Sin embargo, si tenemos en cuenta que aquello que intentan remedar es el ámbito donde han invertido todas las grandes empresas occidentales y chinas desde hace más de 20 años, pinta a que la intentona quedará en gesto imperceptible. El capital informativo hace tiempo que no está en manos de los medios, y por críticos no ha sido (léase desde hace 20 años a Geert Lovink), así que se intuye un nulo recorrido a este brindis al sol del conflicto verdad, medios, información e impacto social de lo dicho.
The BlueDot, una empresa canadiense dedicada al algoritmo, ya sabía el 31 de diciembre de 2019 que se había iniciado una pandemia de coronavirus en Wuhan. ¿Cómo? Cruzando e interpretando datos, que es el servicio que ofrecen a sus clientes (que ni son la Sveriges Radio ni la BBC). Ese mismo día, el de nuestra Nochevieja, esta empresa pronosticó cómo sería su expansión por Asia y si esto es relevante es porque lo hizo mucho antes de que alguien manejara esta realidad en la Organización Mundial de la Salud (9 de enero) e, incluso, antes de que la inteligencia estadounidense alertara de los hechos (6 de enero). ¿A favor de quién rema el algoritmo y a quién beneficia? Hablamos de una pandemia global y una información que podría haber salvado millones de vidas. Salvó la de los clientes de BlueDot, porque aunque nos sorprendieran –y hasta hiciéramos tuits mofándonos– las cancelaciones de las grandes tecnológicas para no asistir al Mobile World Congress, pocos hechos evidenciaron al inicio de la crisis de la Covid-19 a quién pertenecía la información y a quién no.
El gran problema es en manos de quién están esos algoritmos. No cabe duda de que pertenece a sus inversiones –y a plataformas públicas de formación e inversiones– el avance cuántico de las matemáticas y la informática. Sin embargo, no hay que olvidar que sirven a fines comerciales. Exclusivamente, a fines comerciales. Así que hablemos de desigualdades, porque si vive en un barrio bien, la economía de su familia está saneada y no ha tenido problemas previos al respecto, le aparecerán muchos menos anuncios de casas de apuestas. El algoritmo conoce nuestras debilidades. Sabe que estamos durmiendo mal y hemos hecho esa búsqueda de préstamo exprés a las tres de la mañana (más anuncios). Sabe que hemos vuelto a explorar los perfiles de nuestra ex y los móviles de nuestra pareja y el nuestro hace día que no duermen juntos (más anuncios, nuevas necesidades). Tiene un completo derecho de pernada para cruzar nuestras actividades porque vive alimentado de una constante de datos a través de todos los dispositivos: a día de hoy, nuestro robot de cocina, el cepillo de dientes inteligente, el reloj digital, la Tablet, la tele, nuestro coche y el móvil, nutren de datos el fin de nuestra libertad individual y el riesgo de una nueva conciencia colectiva.
Ese riesgo es el de asumir en un futuro próximo que el algoritmo puede tomar mejores decisiones que nosotros. Volvemos al relato de Philip K. Dick, Minority Report, porque solo desde la ciencia ficción podemos atisbar los riesgos morales de interpretar que la inteligencia artificial puede suplir la decisión humana. Cuando Microsoft quiso hacer la gracia lanzando un perfil en Twitter que se alimentara exclusivamente de la conversación de dicha red, que aprendiera como bot y se conviertiera en una suerte de representante juvenil y virtual de la empresa, tuvo que cerrar la cuenta. Tay, que era como se llamaba este avatar, empezó a proferir loas a Hitler, enfrentarse a feministas y ofrecerse para sexo virtual instantáneo en apenas 16 horas. Acusaron a los foristas de 4chan del vergonzante suceso para la compañía de Bill Gates, pero nunca se presentaron pruebas ni se realizó ninguna acusación.
Hace poco más de dos años, Amazon tuvo que cancelar la herramienta que había creado con una gran inversión en inteligencia artificial y que le ayudaba a reclutar talento. ¿La razón? Discriminaba sin sentido a las mujeres con curriculums idénticos a sus contratados. No ha vuelto a recuperar este servicio propio y se asume que la razón de que este algoritmo fuera –tras millones de dólares y años de inversión– tan zafio tiene que ver con una única razón: el algoritmo transmite los sesgos de quien lo diseña. De consecuencias mucho más escalofriantes fue la cancelación de Rekognition, otro algoritmo de Amazon al servicio de la policía y cuyos reconocimientos faciales levantaron una ola de protestas en Estados Unidos. Incluso en Reino Unido, la conexión entre la venta de algoritmos de reconocimiento facial y estos servicios para la seguridad de los estados ha llegado a crear una de las reacciones más sorprendentes –por necesarias– frente al sistema de la data: Big Brother Watch.
Estas son algunas de las causas y consecuencias de un tablero de juego sin reglas, de un escenario disparatado: las leyes de protección de datos europeas, incluida la española, se avejentan a cada minuto que pasa frente a una hegemonía tecnológica que afecta a las libertades individuales. De alguna manera, parece como si los gobiernos trataran de eludir su responsabilidad en la protección social con la aceptación de las condiciones de uso que cada individuo hace. Pero el problema afecta a la economía, a las relaciones y a la capacidad de progresar de cualquier colectivo. Es la absoluta incomparecencia y dejación de funciones pública la que está a punto de crear una ‘guerra civil’ en la ciudad de San Rafael, Argentina, donde un criptopelotazo español está a punto de desatar un conflicto (por estafa piramidal) cuyas consecuencias son difíciles de trazar.
Cada vez que leemos que la información es poder y que su posesión es la que determina la prosperidad de una empresa, háganse cargo de que no estamos hablando de la información a la que uno se suscribe por 10 euros al mes. Hablamos de los BlueDots y de la información basada en la minería de datos a escala global. La información que, desde hace al menos una década, regalamos con el dispositivo que manejamos como extensión de nuestros brazos y desde el cual seguramente me esté leyendo. Sus avances son innegables y en la ecuación solo se requiere un control y protección pública para que los derechos y libertades no vuelen por los aires a cambio de nuevas necesidades comerciales. La libertad que nace de este aparato se convierte en nuestro principal hueco de entrada para una vigilancia completa de nuestros pensamientos, movimientos y relaciones (nada que no sepa), pero sus consecuencias (acceso al mercado laboral, financiaciones, reputación social como ya sucede en China, libertad de movimientos, de asociación o reunión…) saben pesadas.
“Una máquina no toma decisiones éticas. Solo toma decisiones matemáticas”, recuerdan desde Coded Bias. Reproducir el sistema tal y como lo conocemos. La solución al algoritmo pasa por unas instituciones robustas y infinitamente más ágiles a la hora de comprender el hecho virtual. Enfrascados en debates y problemas promocionados por medios de comunicación a los que una pequeña parte de la población atiende, lo cierto es que las nueve empresas que manejan el cotarro (seis estadounidenses y tres chinas) siguen campando a sus anchas en la minería de datos. Son quienes deciden desde un poder que parece intocable, que va camino de subrayar a una humanidad al servicio de la tecnología y olvidar que, antes de este tipo de obligaciones virtuales para tener pareja, obtener un crédito, comprarte una casa, encontrar trabajo y hasta relacionarte con tus amigos, hubo un largo y amplio margen de derechos y libertades conseguidos a base de enfrentarse al sistema. Si las decisiones del sistema acaban siendo algorítmicas (justicia, sanidad, educación) y de clase, ¿habrá margen para oponerse al resultado matemático? ¿Cabrá cualquier otra consideración más allá que la del cruce de trillones de respuestas afirmativas? La deshumanización depende de lo condicionados que estén los estados