En la era del big data, ¿quién le pone inteligencia a la inteligencia artificial? En los últimos años la inteligencia artificial ha captado la atención de la opinión pública gracias a su rápida adopción por parte de empresas de todos los sectores. Primero fueron empresas como Google, IBM, Apple o Amazon las que empezaron a implementar tecnologías “inteligentes” como la clasificación automática de imágenes o el reconocimiento de voz. Posteriormente, estas empresas han ido abriendo a desarrolladores externos la posibilidad de programar aplicaciones usando esa “inteligencia”.

La inteligencia artificial es un concepto que nació en 1956 de la mano de John MacCarthy y otros profesionales en campos tan diversos como las matemáticas, la física o la filosofía. Era un concepto de IA en sentido amplio, donde las máquinas podrían realizar tareas propias de la inteligencia humana. Las limitaciones de la tecnología, sin embargo, han hecho que la IA se trabaje en forma de IA débil o estrecha, donde las máquinas solo pueden abordar de un modo “inteligente” tareas concretas para las que hayan sido entrenadas.

La nueva era de la IA

Conceptos como el aprendizaje máquina o machine learning nacieron en aquella primera época dorada de la IA. Pero la tecnología del momento carecía de la potencia de cálculo necesaria para que los algoritmos de IA se ejecutasen de un modo suficientemente rápido.

A medida que los ordenadores han ido ganando en potencia de procesamiento, los algoritmos y técnicas responsables de implementar la inteligencia artificial de un modo real y tangible han ido aplicándose de un modo paulatinamente más generalizado. Las empresas mencionadas antes y otras muchas que se han subido al carro de la IA, al mismo tiempo, han hecho progresos rápidamente.

Google, por ejemplo, puso su API (Application Programming Interface) al servicio de la comunidad en noviembre de 2015, tras haber sido desarrollada por el equipo de Google Brain. IBM consiguió que Watson, su plataforma de IA, fuese conocida gracias a logros como ganar en el concurso televisivo Jeopardy, o antes al de ganar a Gary Kasparov a través de su ordenador Deep Blue.

Emerging Technology Hype Cycle For 2017 Infographic R6a

Estamos, según Gartner, en la era del Hype para Machine Learning, Deep Learning e IA. IA es el concepto general.

https://29b13bad99b98bf0cd979d65dd8e63e8.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html

ML es una forma de conseguir llegar a la IA que “enseña” a los ordenadores mediante el uso de datos con métodos numéricos y estadísticos. DL es una de las posibles formas de implementar ML usando redes neuronales con varios niveles (redes profundas) donde los cálculos numéricos y estadísticos se llevan a cabo a través de hardware especialmente pensado para procesamiento en paralelo, como tarjetas gráficas (GPUs) o FPGAs.

Ml Dl Ia Diferencias

Los datos, si no son de calidad no sirven de nada

Los datos no son siempre la “fuente” de la inteligencia en la IA. Es importante destacar que los datos se usan en machine learning, pero hay otras formas de implementar sistemas inteligentes sin datos. Es cierto que ML y su forma de implementación más común (DL) son los métodos preferidos para implementar soluciones de IA. Pero no son las únicas.

Con todo, no se pueden usar todo tipo de datos de forma arbitraria en un sistema de ML. Ronald van Loon, director advertisement y uno de los top 10 influencers en Data Science, IoT y AI, habla de las “cinco erres” del big data como método para evaluar la calidad de los datos. Este concepto ha sido acuñado por Nick Piette, chief evangelist en la empresa Talend, y habla de cinco componentes esenciales para elegir unos datos útiles para implementar una plataforma de IA que ofrezca resultados óptimos.

Relevancia, “Recencia” (frescura), Rango, Robustez y Reliability (Confiabilidad) son esas cinco R en inglés, con alguna de ellas sin una traducción fácil al castellano. Con todo, según Ronald van Loon, “relevancia es la “r” más importante y destaca sobre el resto de ellas. Cualesquiera que sean los datos, tienen que ser relevantes”.

https://29b13bad99b98bf0cd979d65dd8e63e8.safeframe.googlesyndication.com/safeframe/1-0-40/html/container.html
Restricted Boltzmann Machine Svg

Big data e IA convergen precisamente aquí: en el aprendizaje máquina o machine learning. Tal y como describe José Fernando Rodríguez, alumno del posgrado Experto en Data Science de U-tad, “la IA es una herramienta que favorece el tratamiento de los datos, y nos abre nuevas vías que hasta ahora quedaban fuera por inabordables. Lo que se está dando es una confluencia de varias disciplinas, que se encuentran y de ese contacto surgen avances que por si solas no se darían”. Y aquí es donde entran en juego los perfiles profesionales encargados de “dirigir” la inteligencia de los sistemas de IA. Como el de científico de datos.

El científico de datos: el cerebro detrás de la IA

Es importante diferenciar este rol de otros similares, como el de ingeniero de datos, experto en estadística o ingeniero de software. Es cierto que son puestos que comparten ciertas habilidades como el conocimiento de la estadística, que comparten los expertos en estadística y los científicos de datos. O los conocimientos de programación, que comparten los ingenieros de software y los científicos de datos. Pero son roles muy diferentes.

De todos ellos, es el de científico de datos el que se encarga de “limpiar” los datos para utilizarlos en modelos predictivos, que son los que dan como resultado los “insights” que luego se usarán para tomar decisiones empresariales o para ofrecer un servicio. Los científicos de datos “necesitan conocer los intrincados detalles relativos a las estadísticas, matemáticas y los modelos de machine learning para construir un modelo predictivo sin fisuras”, comenta Ronald van Loon.

No obstante, todos ellos son perfiles muy demandados y a la vez escasos, como se puso de manifiesto en el debate sobre las salidas profesionales del Big Data que hace unas semanas organizó el Centro Universitario de Tecnología y Arte Digital U-tad, junto a su Comité Industrial y Profesional de Data. Este comité está formado por las principales empresas del sector como Minsait by Indra, Stratio, Vodafone, Solutio, Bi Geek, Synergic Partners – Telefónica, Banco Santander, Lang.ai, Wireless DNA (WDNA), Xplore.ai y Devo.

Debate Bigdata

Una de las conclusiones principales fue que faltan profesionales, hasta tal punto que la escasez de talento en las disciplinas de Data está dificultando el abordar proyectos de innovación en las empresas.

Jesús García Rueda, responsable de formación B2B en el área de Data de U-tad y moderador del debate, comenta que “todo apunta a que la demanda de profesionales bien formados en temas de Data e IA va a seguir creciendo en los próximos años: Big Data, Machine Learning y Deep Learning suponen un cambio de paradigma en la forma en que entendemos la gestión empresarial, no una moda pasajera, y como tal van a hacer falta muchos profesionales para sustentar ese cambio”.

Un campo en constante evolución y con futuro

Tal y como veíamos, tanto la IA como Machine Learning están en la cima de la curva del Hype. Esto significa que aún hay tiempo para la consolidación de estos campos y que hay margen para muchos cambios en el acercamiento de los profesionales y las empresas a estas áreas. Centros universitarios como U-tad tienen como parte de sus responsabilidades la de adaptar sus programas formativos a estos cambios. Incluso anticiparse a ellos. Es a la vez un reto y una oportunidad, por supuesto.

Jesús García Rueda detalla los procesos que se siguen en U-tad para mantener al día sus programas formativos de grado y postgrado: “en nuestro caso, a la amplia experiencia académica y profesional tanto de los responsables y coordinadores académicos como de los directores de los distintos programas, se suma el asesoramiento de nuestro Comité Industrial, que permite mantener nuestros programas al día no solo de las técnicas y tecnologías empleadas en la industria del dato, sino también del tipo de perfiles que se están demandando”, añade.

Los alumnos valoran este trabajo por parte de U-tad. José Fernando Rodríguez pone un énfasis especial en este punto: “muchos de los profesores trabajan en su día a día en esta profesión, dándote una visión real de los proyectos y la tecnología y no exclusivamente desde un punto de vista académico”.

Utad Bigdata

La oferta de U-tad relacionada con los datos permite formar a expertos con perfiles perfectamente alineados con lo que demanda el mercado, como el de científico de datos. Se parte de los estudios de grado como el de Ingeniería del Software con el itinerario de especialización en Ingeniería de Datos. También cuenta con un doble grado oficial en Ingeniería del Software y Matemáticas para formar a los científicos de datos. Y una oferta de posgrado que contempla por un lado el Máster en Data Science y Big Data y un Experto en Data Science.

Este repertorio de ofertas de formación se traduce en resultados tangibles en la vida real. José Fernando Rodríguez lo ratifica: “antes incluso de terminar los estudios varias empresas ya se interesaron y me pidieron entrevistas. Igualmente veo muy interesante la feria anual de empleo, o ‘Company Day’, que organiza U-tad, donde entras en contacto con las empresas del sector, realizas multitud de entrevistas, y puedes darte cuenta de lo que se espera de ti como Experto”.

Finalmente, se dejó claro que “las empresas buscan profesionales especializados, capaces de resolver problemas, con tolerancia a la frustración y, si además se da el caso de que tienen un máster o alguna especialización en Big Data, directamente se contrata”.

La IA sigue precisando de las personas

De momento, la inteligencia de la IA sigue dependiendo de profesionales como los científicos de datos para que las empresas consigan hacer un uso eficiente y rentable de la inteligencia artificial. El reto por parte de las empresas es el de captar a profesionales que sean capaces de liderar los procesos de transformación necesarios para integrar los datos en los procesos de negocios.

Claseutad Bigdata

Tal y como resume José Fernando Rodríguez, la labor en la vida real de un científico de datos es “facilitar a las empresas información valiosa para la toma de decisiones acertadas”. Para ello, hay que “extraer valor de los datos almacenados por una empresa… Un ejemplo claro sería encontrar patrones de comportamiento en los hábitos de consumo de los clientes de dichas empresas, es todo un clásico en el sector bancario el detectar posibles impagos, estudiando multitud de variables y entrenando modelos informáticos”, y es responsabilidad de una persona, aunque se valga de la IA como herramienta para hacerlo.

La Comisión Europea prevé que este sector creará 112.000 empleos cada año hasta 2020 y calcula que la UE necesita ya 800.000 trabajadores de estos ámbitos, un 10% solo en España.

Para Jesús García Rueda “la causa principal de la falta de profesionales puede venir por un tema de formación: el Big Data es una tecnología relativamente reciente y el boom del análisis de datos, más reciente todavía; salvo en instituciones decanas en el tema del Big Data como U-tad, solo ahora empieza a reflejarse esta necesidad de formación en los planes de estudios de los grados universitarios y en la aparición de programas formativos de posgrado”.

Los sistemas de IA actuales dependen en muchos casos de los datos para su “aprendizaje” o entrenamiento. Pero, sin duda, su avance y éxito se deben fundamentar en la existencia de profesionales formad os en estas materias.

No responses yet

Leave a Reply

Your email address will not be published. Required fields are marked *

Esta web utiliza cookies para su correcto funcionamiento. Al hacer click en el boton aceptar, aceptas el uso de estas tecnologías y el procesamiento de tus datos para estos propositos.    Más información
Privacidad