ALICANTE. Antonio Soto es director de la unidad de negocio de Data & Artificial Intelligence de Verne Group y CEO de SolidQ. Tiene más de 20 años de experiencia gestionando y asesorando a grandes empresas sobre sistemas de información, especialmente de Business Intelligence y gestión de datos. En este campo, se ha especializado en soluciones de Big Data, Smart Data y tecnologías IA con el objetivo de acompañar a las compañías en su reto digital de convertirse en 'data centric', algo esencial en el contexto que vivimos para sacar el máximo partido de los datos y convertirlos en información y en decisiones que garanticen su rentabilidad y sostenibilidad.
-Llega una nueva edición de SolidQ Summit que entiendo que estará fuertemente marcada por las circunstancias. ¿Cómo afecta la crisis del Covid a la propia mecánica del encuentro y a los temas que se tratarán?
-Después de 15 años consecutivos organizando el mayor evento técnico de tecnología de datos en entornos Microsoft, esta será la primera edición que ejecutaremos 100% online. Hasta ahora habíamos tenido alguna iniciativa de sesiones en remoto, con speakers internacionales y alguna otra novedad, pero nunca 100% online. Será un reto, porque estamos hablando de cinco días consecutivos en jornadas de día completo. Con respecto a los contenidos, no hemos cambiado las temáticas generales, pero sí que comentaremos algunos nuevos escenarios de aplicabilidad de nuestras soluciones para casos concretos generados por el Covid-19.
-¿Cuáles serán los grandes debates que se van a afrontar en esta edición?
-Pues como siempre hemos hecho, tendremos dos “tracks” que emitiremos en paralelo. El primero estará más orientado a la analítica de datos, donde trataremos desde temas de desarrollo de soluciones de Business Intelligence hasta soluciones de Machine Learning. El segundo pondrá foco en cómo sacar el mejor partido de una plataforma de datos, donde la nueva versión del motor de base de datos de Microsoft, SQL Server 2019, tendrá un lugar preferencial, sin olvidarnos de la Nube. Eso durante las mañanas, durante las tardes estaremos ejecutando cuatro workshops que complementarán y profundizarán desde un punto de vista más práctico las temáticas tratadas durante las mañanas. En total más de 30 horas de formación con el dato como protagonista.
-La crisis del Covid ha demostrado que es fundamental no solo conocer los datos, sino saber analizarlos. ¿Están nuestras empresas e instituciones preparadas para ello?
-El punto más importante a la hora de abordar cualquier problemática de análisis de datos está en la calidad del dato. La magia no existe. Por mucho conocimiento y tecnología que se quiera aplicar en un proceso si los datos de partida no tienen la calidad necesaria, es imposible extraer conocimiento de utilidad y por tanto tomar buenas decisiones. Y no se le presta al dato la atención necesaria. Se está invirtiendo mucho en tecnología y conocimiento de analítica de datos, pero se presta poca atención a la calidad de la materia prima. Por aplicar este concepto a la problemática del Covid. Si no existe un dato de entrada homogéneo, si en cada caso la forma de contar a los contagiados, por ejemplo, es diferente, cualquier análisis que se realice sobre esos datos será en balde.
-Este uso del dato, ¿genera conflictos con el derecho a la privacidad? Por ejemplo, cuando el Gobierno puede saber dónde estamos y cómo nos movemos geolocalizando el móvil
-Las barreras en este punto no siempre están claras. Siempre que estemos hablando de datos anónimos, no habría ningún problema con la privacidad, aunque en este caso concreto, como decía, la línea que separa esa anonimización no está nada clara. Pero sí me parece importante destacar que las técnicas avanzadas de análisis de datos, como el Machine Learning, siempre tienen como objetivo la generalización, por lo que realmente no son relevantes para todo este tipo de análisis los datos personales de cada individuo. Como punto de autocrítica, creo que los profesionales que nos dedicamos a este mundo debemos de hacer un mejor trabajo de pedagogía para hacerle entender a los ciudadanos este tipo de cuestiones y que es posible sacar provecho de estas técnicas sin menoscabar nuestros derechos.
-¿En qué momento nos encontramos de la aplicación de la IA al análisis de datos? ¿Qué mejoras puede suponer su pleno desarrollo?
-En estos últimos años se ha avanzado mucho. El paso de la investigación y el mundo académico ya se ha dado y ahora estamos en una nueva etapa en la que se está dotando a todas las soluciones que nos rodean de cierta inteligencia basada en datos. En cuanto a los principales retos que debemos de afrontar hoy en día mencionaría dos. El primero ya lo hemos comentado y está relacionado con la privacidad y los datos personales. El segundo, está relacionado con la Interpretabilidad, es decir, ser capaces de explicar el porqué un algoritmo toma una determinada decisión. Y eso, dependiendo de la complejidad del algoritmo no siempre es sencillo. Se están haciendo muchos esfuerzos en la industria para intentar dotar de mejor explicabilidad a las soluciones.
-¿Qué importancia tiene para las empresas poder disponer de una buena estrategia de análisis/gestión de los datos de sus clientes?
-Las organizaciones que le prestan atención al dato, lo que se ha dado por llamar organizaciones data-centric, tienen mucho más éxito que su competencia. El Mckinsey Global Institute, por poner un ejemplo, cifra ese éxito en que las compañías data-centric tienen 23 veces más posibilidades de convertir a un cliente potencial en cliente real, 6 veces más posibilidades de retenerlos y 19 veces más probabilidades de generar un beneficio como resultado. Si estar enfocado en los datos nos lleva a este tipo de resultados, las organizaciones deberían de plantearse muy en serio realizar inversiones en intentar sacar provecho a la ingente cantidad de datos que están generando. Eso sí, para que esto se cumpla, es necesario creérselo y apostar por que la filosofía data-centric forme parte del ADN de una compañía involucrando a todos los niveles, desde la dirección, hasta el último empleado.
-¿Algún caso práctico de buen uso de los datos, o una aplicación concreta donde ya se estén dando casos de éxito?
-Pues tenemos casos muy prácticos como anticipar el abandono de usuarios que son socios de cadenas de supermercados, o por ejemplo utilizar el Machine Learning para decidir cuáles son las piezas que deben de llevar las furgonetas de los técnicos de reparación, o mecanismos para detectar el fraude en caja en lineales del retail. La verdad es que tenemos muchos casos de éxito de todos los sectores y lo mejor que puedo hacer es animaros a todos a que os conectéis la semana del 18 de mayo para que los podamos compartir con vosotros.