Skip to content

¿En qué se diferencian Machine Learning, Deep Learning y IBM Watson?

diferencias-machine-learning-deep-learning-e-ibm-watson

El mundo de la inteligencia artificial ha experimentado un vuelco radical durante los últimos años.

Términos como “Machine Learning” o “Deep Learning” han comenzado a utilizarse de una forma un tanto indiscriminada, lo que puede resultar bastante confuso para quien no está familiarizado con la tecnología que los respalda.

Quizá lo que más está llamando la atención es el conjunto de aplicaciones prácticas que suponen. En el mundo del Marketing, el llamado Marketing Predictivo está suponiendo un cambio en cuanto a la forma de obtener resultados por parte de las empresas.

En este caso, voy a unirlo a IBM Watson, un impresionante desarrollo por parte de IBM de tecnología Cognitiva. En ShowerThinking estamos apostando por esta línea de trabajo y somos unas de las primeras empresas en España en conseguir la calificación de partner en Watson Analytics.

Voy a intentar “traducir” al lenguaje de los mortales este nuevo conjunto de términos y, al mismo tiempo, compararlos entre sí. Deséame suerte 🙂

Machine Learning: una máquina que aprende lo que se le indica

El machine learning es una de las principales aplicaciones prácticas de la Inteligencia Artificial y se basa en el hecho de diseñar programas capaces de mejorar su rendimiento mediante la exposición incremental a datos. A esto se lo ha venido a denominar “aprendizaje” y trata de emular el comportamiento humano.

Técnicamente hablando, el machine learning consiste en el uso de técnicas estadísticas y matemáticas para crear modelos predictivos de respuesta frente a la recogida de datos. Esta disciplina se subdivide a su vez entre aprendizaje supervisado y aprendizaje no supervisado.

Es decir, en lugar de necesitar que un determinado usuario indique exactamente las instrucciones para cada evento, el programa es capaz de aprender progresivamente y mejorar su rendimiento.

Uno de los ejemplos más típicos del que nos beneficiamos todos los días es la carpeta de spam de nuestros gestores de correo electrónico.

Aunque siempre podemos etiquetar un determinado email como spam, el programa que administra la recepción de la correspondencia online es capaz de aprender a reconocer y etiquetar el spam a partir de criterios estadísticos que se repiten una y otra vez en la información que recoge.

Los algoritmos de las redes sociales se han beneficiado igualmente del uso del machine learning para identificar cuáles son los temas más candentes en un determinado momento o aquellos que más nos interesan. Todo ello gracias a la progresiva recogida de datos y el aprendizaje estadístico de los mismos.

¿Cuál es la principal limitación del machine learning?

La mayor limitación del machine learning consiste precisamente en que aquellas características que son objeto de análisis estadístico deben ser previamente especificadas por el programador de forma manual.

Obviamente, eso supone una clara restricción a la capacidad de “aprendizaje de la máquina” y genera una mayor incidencia de errores humanos durante el proceso de programación.

Si el programa sólo opera en un entorno controlado, las variables son relativamente reducidas. Sin embargo, cuando trasladamos esta tecnología a entornos reales de la vida cotidiana, comienzan a surgir dificultades.

¿Cuántos parámetros se necesita definir para que un programa pueda reconocer eficazmente un rostro o una señal de tráfico?

A priori, parecen objetos acotables pero, en la práctica, las más sutiles variaciones –como la visibilidad parcial o reducida- han imposibilitado que estos programas pudieran resultar fiables.

El deep learning es la respuesta a estos problemas.

Deep Learning: una máquina que aprende a decidir qué es lo importante

Los nuevos algoritmos de deep learning están diseñados para ser capaces de desarrollar sus propios criterios y establecer nuevos parámetros con los que tomar y ejecutar decisiones, tal y como lo haría un ser humano.

El deep learning es heredero de lo que en los años 60 se acuñó como redes neurales artificiales. Hasta hace algunos años, no se había podido llevar a la práctica de una forma eficaz, debido a la intensa computación que requieren las sucesivas capas y conexiones neurales.

El proceso de computación culmina con un vector probabilístico acerca de cuál es el significado o repercusión de la información que el programa ha recibido y procesado. Por ejemplo, si el objetivo es reconocer una señal de tráfico, el programa determina las probabilidades de que se trate de una señal de stop, una señal de límite de velocidad o un cartel publicitario.

¿Lo mejor de todo?

La exposición reiterada a los mismos estímulos permite que la máquina aprenda y decida por sí misma cuáles son las características principales que definen la información o realidad que necesita comprender.

Uno de los mayores hitos de la época reciente fue cuando el ingeniero Andrew Ng creó una enorme red neural capaz de reconocer a un gato en un vídeo. Para ello, hizo que el programa “aprendiera” mediante la exposición a millones de vídeos de youtube.

Hoy en día, todos conocemos las aplicaciones que están teniendo lugar, por ejemplo, en el mundo de conducción autónoma. Sin embargo, su alcance llega mucho más lejos.

¿Qué es IBM Watson y qué tiene que ver con todo esto?

Una de las soluciones de inteligencia artificial más utilizadas en el ámbito empresarial es IBM Watson. Cuyo nombre es un homenaje al primer CEO de IBM, Thomas John Watson.

IBM Watson es un sistema de inteligencia artificial capaz de procesar lenguaje humano natural (audios, elementos visuales, textos); realiza razonamientos automatizados a partir de estos datos.  

Los procesos cognitivos que realiza un experto implican 3 pasos:

  • Observar
  • Interpretar y evaluar
  • Decidir

IBM Watson es un sistema de computación cognitiva (cognitive computing) y básicamente su cometido es ofrecer razonamientos de alto nivel con cierta analogía al razonamiento humano y excluyendo aspectos emocionales, que bien sabemos cuánto puede afectar en el caso humano la toma de decisiones.

La analítica de datos y BI requieren el uso de algoritmos y equipos informáticos utilizando complejos algoritmos para procesar grandes cantidades de datos. Se basan en la experiencia de profesionales cualificados que entienden además los problemas del negocio, desarrollan los análisis e interpretan los resultados.

Watson “piensa” o “razona” en una forma similar al cerebro humano. Procesa información, llega a conclusiones y aprende de sus experiencias. No utiliza reglas predefinidas para descubrir respuestas. Genera hipótesis basadas en gran cantidad de datos y conexiones. Las respuestas se muestran como recomendaciones junto con rangos de confianza. Al revés que una herramienta analítica cuanto más datos recibe mejores insights puede responder.

Además, lo diferenciador es que IBM Watson gestiona información simbólica y conceptual, además de los datos puros cuantitativos de manera que es útil su uso en situaciones complejas.

Los sistemas cognitivos en general a menudo utilizan técnicas de machine-learning, pero la computación cognitiva no es un método de machine-learning, sino que es una integración de sistemas de inteligencia artificial que trabajan coordinados en la resolución de un problema.

Ante estos retos, uno de los mejores aliados para los expertos es IBM Watson, pues les permite acelerar y hace escalable su expertise.

Si te interesan estos temas, mantente atento a mis publicaciones pues iré comentando más al respecto.

El día 21 de mayo impartiré una conferencia sobre Marketing Data Science en PyData 2017 Barcelona, uno de los eventos más importantes a nivel global para los analistas de datos. Aquí puedes ver el programa de PyData y aún estás a tiempo de comprar tu entrada.

¿Cómo integrar el marketing intelligence sobre Salesforce?

¡En nuestro paper te lo contamos todo!

cta contacto