- Fecha de publicación
- abril 2022
- Tecnología
- Artículo
Profesor de ESIC. Responsable de Data Gobernance en Viewnext (grupo IBM).
Ha estado ligado durante los últimos 15 años a posiciones de Data Science, Data Managment, especializado en gestión de información, técnicas de geomarketing y estadísticas.
Desde este lugar, desde aquí, desde un artículo formal sobre una temática muy en boga en nuestros días, me propongo desarrollar y arrojar algo de luz sobre uno de los marcos metodológicos más punteros de la analítica, en este caso el deep learning.
Para iniciar este tipo de artículos o sesiones, creo que lo mejor es siempre aclarar el concepto con una definición formal:
¿Te gustaría cursar nuestro Curso Especializado Online en Big Data Analytics [CEOBDA]? Accede para más información.
Aprendizaje profundo (en inglés, deep learning) es un conjunto de algoritmos de aprendizaje automático (en inglés, machine learning) que intenta modelar abstracciones de alto nivel en datos usando arquitecturas computacionales que admiten transformaciones no lineales múltiples e iterativas de datos expresados en forma matricial o tensorial. 1
Es una buena forma de no meter la pata al iniciar un artículo y de sentar su base, pero ¿entendemos realmente de qué se habla cuando se usa el término deep learning? De forma más básica y directa, el deep learning aúna un conjunto de técnicas que permiten afrontar problemas que no son asumibles con las técnicas tradicionales por la complejidad de los datos de entrada. Esta complejidad está marcada, principalmente, por la naturaleza del dato que se va a tratar, el dato desestructurado.
Es importante tener en cuenta que estas técnicas no están únicamente orientadas al análisis de datos no tabulares, tales como imágenes, vídeos, audio o texto, sino que también se pueden aplicar a datos estructurados cuando, por ejemplo, el volumen de datos sea tan elevado que no sea asumible con técnicas tradicionales.
En este punto entra el buen hacer del analista o el científico de datos, que tiene que decidir cómo abordar un problema. Como norma general y como máxima que facilita la selección del camino correcto, aparece el principio de parsimonia o navaja de Ockham: «En igualdad de condiciones, la explicación más simple suele ser la más probable».
Llegados a este punto, es momento de fijar dónde se utiliza hoy en día, en qué conjuntos de datos:
-
Imágenes.
Siempre se han podido analizar los valores de los píxeles que se encuentran en una fotografía o cosas similares, pero mediante el deep learning se pueden detectar patrones y vinculaciones entre conjuntos de píxeles no tratables previamente. Con todo esto se pueden derivar modelos predictivos.
Esto lo encontramos en todo tipo de filtros fotográficos o en la estimación de las características de un conjunto de imágenes, como estimar la edad de una persona o la raza de un perro.
-
Vídeos.
Hasta ahora no era sencilla la extracción de los elementos de un vídeo, su análisis y la obtención de resultados desde ellos, especialmente cuando se piensa en el tiempo que se requería para ello. En la actualidad, poder hacer esto «en tiempo real» le da una nueva dimensión a su utilización.
Tanto la detección de entidades de un vídeo (mapas de calor de un jugador de fútbol) como la generación de contenido (deepfake) están en nuestra cotidianidad.
-
Audio.
Aquí se encuentran no solo los procesamientos de entradas de audio, sino también la generación de contenido o de discurso. Una vez más, la velocidad de procesamiento y la instantánea puesta en disposición de esa salida de audio hacen que las nuevas técnicas adquieran una nueva dimensión.
En este apartado el estandarte está en los asistentes virtuales, especialmente en los altavoces «inteligentes», donde se trata el audio de entrada y se genera contenido de salida.
-
Texto.
En este aspecto, saliendo de las tradicionales nubes de palabras o de los conteos de términos, las nuevas técnicas empujan los análisis hacia el contexto, hacia la vinculación de términos en un documento e incluso hacia la creación de nuevos textos.
El máximo exponente en este tipo de datos está en el procesamiento del lenguaje natural (NLP) y, llevado a su utilización más cotidiana, se puede encontrar en la gestión documental o en los análisis de sentimientos (RR. SS.).
H2: Creo interesante finalizar con un par de menciones más específicas que permitan acotar algo más este mundo tan complejo:
-
Deep learning ≠ redes neuronales.
Se usan ambos términos de forma análoga en muchas ocasiones y es fácil cometer este pequeño pecado, ya que dentro del marco general del deep learning las redes neuronales son las más empleadas y las que tienen un mayor desarrollo en estos años. Se pueden encontrar otras técnicas como el random forest, pero es cierto que esa analogía se refiere a que la tecnología de las redes neuronales es la principal apuesta, entre otras, de compañías líderes como Google (www.tensorflow.org), lo que hace que se empiece a hablar de una parte como el todo.
-
¿Por qué se habla de inteligencia artificial cuando se quiere decir deep learning?
Aquí entramos en términos más marketinianos o más publicitarios que académicos. Siempre es más vendible un altavoz o un coche inteligentes que un altavoz o un coche con modelos de deep learning.
Pero la realidad es que los coches autónomos encadenan modelos que permiten el reconocimiento de vídeo (cámaras frontales y traseras), la detección de imágenes (señales), la sensorización (averías) y todo esto procesado en tiempo real para facilitar la toma de decisiones del conductor o incluso anticiparla de forma automática.
Un altavoz inteligente es capaz de reconocer la diferente voz de los usuarios habituales, transcribir el contenido de lo que expresan, realizar búsquedas de contenido y generar una respuesta, ya sea en forma de discurso o de resultado.
A modo de resumen, Alexa no es inteligente; es tecnológicamente muy avanzada.
Como cierre, diré que el deep learning es complejo, novedoso y abre todo un mundo de posibilidades, pero siempre hay que tratar de acotar su alcance, su definición y su realidad para no pecar de inflar unas expectativas que puedan acabar pinchando o de difuminar su potencial real en terminologías o analogías erróneas.
Te recomendamos que no dejes de actualizarte en las últimas tendencias y adquieras los conocimientos adecuados. Te invito a que mires detenidamente el Curso Especializado Online en Big Data Analytics [CEOBDA].
También te puede interesar
Cobranding: qué es, cómo funciona y por qué lo necesita mi marca. Ejemplos exitosos
En el mundo de los negocios, la cooperación siempre ha sido una pieza clave a la hora de emplear estrategias innovadoras que llamen la atención de los consumidores. Las empresas pueden tener la mism...
- Publicado por _ESIC Business & Marketing School
¿Qué es la curación de contenido? Herramientas esenciales para hacerlo
Nos vemos continuamente impactados por información muy diversa. La digitalización hace que nos llegue información valiosa a través de numerosos canales y, si no se sabe almacenar del modo adecuado...
- Publicado por _ESIC Business & Marketing School
Team building: qué es y cómo podemos implementarlo en una empresa
Los empleados son la estructura de cualquier empresa. Sin ellos, el negocio no saldría adelante, motivo suficiente para tener departamentos encargados tan solo de buscar estrategias para que los empl...
- Publicado por _ESIC Business & Marketing School