Aprendizaje automático: la historia completa en una línea de tiempo

El aprendizaje automático es un término tecnológico típico que escuchamos en todas partes. Una de las tendencias tecnológicas más notables en la actualidad, los algoritmos de aprendizaje automático, basados ​​en modelos matemáticos, permiten a los sistemas informáticos reconocer y aprender directamente de los patrones en los datos y realizar tareas complejas de manera inteligente, en lugar de seguir reglas preprogramadas o usar instrucciones explícitas.

Mediante la aplicación de técnicas de aprendizaje automático, las empresas obtienen importantes ventajas competitivas y financieras al ofrecer mejores experiencias al cliente y reaccionar más rápidamente a los cambios del mercado. El aprendizaje automático se usa ampliamente en la búsqueda web, filtros de spam, sistemas de recomendación, colocación de anuncios, calificación crediticia, detección de fraude, comercio de acciones, diseño de medicamentos y muchas otras aplicaciones.

 

Ventajas del aprendizaje automático

Hay muchos beneficios que las empresas obtienen del aprendizaje automático.

  • Descubra rápidamente tendencias específicas, patrones y relaciones implícitas en vastos y complejos conjuntos de datos.
  • Tiene la capacidad de aprender y hacer predicciones sin intervención humana.
  • Mejora continua en precisión, eficiencia y velocidad.
  • Bueno para manejar problemas multidimensionales y datos multivariados.
  • Ayude a las empresas a tomar decisiones más inteligentes y rápidas en tiempo real
  • Eliminar el sesgo de la toma de decisiones humanas.
  • Automatice y agilice procesos comerciales predecibles y repetitivos
  • Mejor uso de los datos, tanto estructurados como no estructurados.

Ahora, hagamos un viaje rápido a través del origen y una breve historia del aprendizaje automático y sus hitos más importantes.

Siglo XVIII – Desarrollo de métodos estadísticos: Varios conceptos vitales en el aprendizaje automático se derivan de la teoría de la probabilidad y las estadísticas, y se remontan al siglo XVIII. En 1763, el estadístico inglés Thomas Bayes estableció un teorema matemático para la probabilidad, que se conoció como el Teorema de Bayes, que sigue siendo un concepto central en algunos enfoques modernos del aprendizaje automático.

1950 – La prueba de Turing: Los documentos del matemático inglés Alan Turing en la década de 1940 estaban llenos de ideas sobre inteligencia artificial. «¿Pueden pensar las máquinas?» Preguntó. En 1950, sugirió una prueba de inteligencia de máquina, más tarde conocida como la Prueba de Turing, en la que una máquina se llama «inteligente» si sus respuestas a las preguntas pueden convencer a un humano.

1952 – Juego de damas: En 1952, el investigador Arthur Samuel creó una máquina de aprendizaje temprano, capaz de aprender a jugar a las damas. Utilizó guías anotadas por expertos humanos y jugó contra sí mismo para aprender a distinguir los movimientos correctos de los malos.

1956 – El taller de Dartmouth: El término «inteligencia artificial» nació durante el Taller de Dartmouth en 1956, que es ampliamente considerado como el evento fundador de la inteligencia artificial como campo. El taller duró de seis a ocho semanas y contó con la presencia de matemáticos y científicos, incluidos el informático John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon.

Aprendizaje automático: la historia completa en una línea de tiempo

1957 – El Perceptrón: El conocido Perceptron del psicólogo estadounidense Frank Rosenblatt fue un intento temprano de crear una red neuronal con el uso de una resistencia rotativa (potenciómetro) accionada por un motor eléctrico. La máquina podría tomar una entrada (como píxeles de imágenes) y crear una salida (como etiquetas).

1967 – Algoritmo vecino más cercano: La regla del vecino más cercano (NN) es un clásico en el reconocimiento de patrones, que apareció en varios artículos de investigación en la década de 1960, especialmente en un artículo escrito por T. Cover y P. Hart en 1967. El algoritmo trazó una ruta para vendedores ambulantes, comenzando en una ciudad aleatoria pero asegurándose de que visiten todas las ciudades durante un breve recorrido.

1973 – El informe Lighthill y el invierno AI: El Consejo de Investigación Científica del Reino Unido publicó el informe Lighthill de James Lighthill en 1973, presentando un pronóstico muy pesimista en el desarrollo de aspectos centrales en la investigación de IA. Afirmó que «en ninguna parte del campo los descubrimientos realizados hasta ahora han producido el mayor impacto que luego se prometió». Como resultado, el gobierno británico recortó los fondos para la investigación de IA en todas las universidades menos dos. Este período de reducción de fondos e intereses se conoce como un invierno de IA.

1979 – Stanford Cart: Los estudiantes de la Universidad de Stanford inventaron un robot llamado Cart, conectado por radio a una gran computadora central, que puede sortear obstáculos en una habitación por sí solo. Aunque todo el cruce de la sala tomó cinco horas debido a mapas y errores apenas adecuados, la invención era de vanguardia en ese momento.

Aprendizaje automático: la historia completa en una línea de tiempo

1981 – Aprendizaje basado en explicaciones (EBL): Gerald Dejong introdujo el concepto de Explanation Based Learning (EBL), que analiza los datos y crea una regla general que puede seguir descartando datos sin importancia.

1985 – NetTalk: El profesor Francis Crick, Terry Sejnowski, inventó NetTalk, NETtalk, un programa que aprende a pronunciar texto escrito en inglés al mostrar texto como entrada y transcripciones fonéticas coincidentes para comparar. La intención era construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.

1986 – Procesamiento paralelo distribuido y modelos de redes neuronales: David Rumelhart y James McClelland publicaron Parallel Distributed Processing, que avanzó el uso de modelos de redes neuronales para el aprendizaje automático.

1992 – Jugar al backgammon: El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial, que era capaz de jugar backgammon con habilidades que combinaban con los mejores jugadores humanos.

1997 – azul profundo: Deep Blue de IBM se convirtió en el primer sistema de juego de ajedrez por computadora en vencer a un actual campeón mundial de ajedrez. Deep Blue utilizó la potencia informática en la década de 1990 para realizar búsquedas a gran escala de movimientos potenciales y seleccionar el mejor movimiento.

Aprendizaje automático: la historia completa en una línea de tiempo

2006 – Aprendizaje profundo: Geoffrey Hinton creó el término «aprendizaje profundo» para explicar nuevos algoritmos que ayudan a las computadoras a distinguir objetos y texto en imágenes y videos.

2010 – Kinect: Microsoft desarrolló el dispositivo de entrada de detección de movimiento llamado Kinect que puede rastrear 20 características humanas a una velocidad de 30 veces por segundo. Permitía a las personas interactuar con la computadora a través de movimientos y gestos.

2011 – Watson y Google Brain: Watson de IBM ganó un juego del concurso estadounidense Jeopardy contra dos de sus campeones. En el mismo año, Google Brain desarrolló su red neuronal profunda que podía descubrir y clasificar objetos de la misma manera que un gato.

Aprendizaje automático: la historia completa en una línea de tiempo

2012 – Clasificación de ImageNet y visión por computadora: El año vio la publicación de un artículo de investigación influyente por Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever, que describe un modelo que puede reducir drásticamente la tasa de error en los sistemas de reconocimiento de imágenes. Mientras tanto, el Laboratorio X de Google desarrolló un algoritmo de aprendizaje automático capaz de navegar de forma autónoma por los videos de YouTube para identificar los videos que contienen gatos.

2014 – DeepFace: Facebook desarrolló un algoritmo de software DeepFace, que puede reconocer y verificar a las personas en las fotos con la precisión de un humano.

2015 – Amazon Machine Learning: Andy Jassy de AWS lanzó sus servicios administrados de Machine Learning que analizan los datos históricos de los usuarios para buscar patrones e implementar modelos predictivos. En el mismo año, Microsoft creó el Kit de herramientas de aprendizaje automático distribuido, que permite la distribución eficiente de los problemas de aprendizaje automático en varias computadoras.

2016 – AlphaGo: AlphaGo, creado por investigadores de Google DeepMind para jugar el antiguo juego chino de Go, ganó cuatro de cinco partidos contra Lee Sedol, quien ha sido el mejor jugador de Go del mundo durante más de una década.

2017 – Libratus y Deepstack: Investigadores de la Universidad Carnegie Mellon crearon un sistema llamado Libratus, y derrotó a cuatro de los mejores jugadores en No Limit Texas Hold ‘em, después de 20 días de juego en 2017. Los investigadores de la Universidad de Alberta también informaron un éxito similar con su sistema, Deepstack.

 

Leave a Comment!