Introducción
Durante los últimos años, los términos inteligencia artificial y aprendizaje automático han comenzado a aparecer con frecuencia en noticias y sitios web de tecnología. A menudo, los dos se usan como sinónimos, pero muchos expertos sostienen que tienen diferencias sutiles pero reales.
Y, por supuesto, los expertos a veces no están de acuerdo entre ellos sobre cuáles son esas diferencias.
Sin embargo, en general, dos cosas parecen claras: primero, el término inteligencia artificial (IA) es más antiguo que el término aprendizaje automático (ML), y segundo, la mayoría de las personas consideran que el aprendizaje automático es un subconjunto de inteligencia artificial.
Inteligencia artificial versus aprendizaje automático
Aunque la IA se define de muchas maneras, la definición más aceptada es “el campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana, como el aprendizaje, la resolución de problemas y el reconocimiento de patrones”, en esencia, es la idea que las máquinas pueden poseer inteligencia
El corazón de un sistema basado en Inteligencia Artificial es su modelo. Un modelo no es más que un programa que mejora su conocimiento a través de un proceso de aprendizaje al hacer observaciones sobre su entorno. Este tipo de modelo basado en el aprendizaje se agrupa en Aprendizaje supervisado. Hay otros modelos que entran en la categoría de Modelos de aprendizaje no supervisados.
La frase “aprendizaje automático” también se remonta a mediados del siglo pasado. En 1959 Arthur Samuel ML definido como “la capacidad de aprender sin ser programado explícitamente”. Y luego creó una aplicación de verificación de computadoras que fue uno de los primeros programas que pudo aprender de sus propios errores y mejorar su rendimiento con el tiempo.
Al igual que la investigación de inteligencia artificial, ML cayó de moda durante mucho tiempo, pero se volvió popular nuevamente cuando el concepto de minería de datos comenzó a despegar alrededor de la década de 1990. La minería de datos utiliza algoritmos para buscar patrones en un conjunto dado de información. ML hace lo mismo, pero luego va un paso más allá: cambia el comportamiento de su programa en función de lo que aprende.
Una aplicación de ML que se ha vuelto muy popular recientemente es el reconocimiento de imágenes. Estas aplicaciones primero deben ser entrenadas; en otras palabras, los humanos tienen que mirar un montón de imágenes y decirle al sistema qué hay en la imagen. Después de miles y miles de repeticiones, el software aprende qué patrones de píxeles generalmente están asociados con caballos, perros, gatos, flores, árboles, casas, etc., y puede hacer una suposición bastante buena sobre el contenido de las imágenes.
Muchas compañías basadas en la web también usan ML para impulsar sus motores de recomendación. Por ejemplo, cuando Facebook decide qué mostrar en su suministro de noticias, cuando Amazon resalta los productos que desea comprar y cuando Netflix sugiere películas que tal vez quiera ver, todas esas recomendaciones se basan en predicciones basadas en patrones en sus datos existentes.
Fronteras de inteligencia artificial y aprendizaje automático: aprendizaje profundo, redes neuronales y computación cognitiva
Por supuesto, “ML” y “AI” no son los únicos términos asociados con este campo de la informática. IBM utiliza con frecuencia el término “computación cognitiva”, que es más o menos sinónimo de IA.
Sin embargo, algunos de los otros términos tienen significados muy únicos. Por ejemplo, una red neuronal artificial o red neuronal es un sistema que ha sido diseñado para procesar información de manera similar a la forma en que funcionan los cerebros biológicos. Las cosas pueden ser confusas porque las redes neuronales tienden a ser particularmente buenas en el aprendizaje automático, por lo que esos dos términos a veces se combinan.
Además, las redes neuronales proporcionan la base para el aprendizaje profundo, que es un tipo particular de aprendizaje automático. El aprendizaje profundo utiliza un cierto conjunto de algoritmos de aprendizaje automático que se ejecutan en varias capas. Es posible, en parte, por los sistemas que usan GPU para procesar una gran cantidad de datos a la vez.
Si estás confundido por todos estos términos diferentes, no estás solo. Los informáticos continúan debatiendo sus definiciones exactas y probablemente lo harán durante algún tiempo. Y a medida que las empresas continúen invirtiendo dinero en investigación de inteligencia artificial y aprendizaje automático, es probable que surjan algunos términos más para agregar aún más complejidad a los problemas.
Deja tu comentario