La historia del Machine Learning

En contra de la creencia popular, la historia del aprendizaje automático, que permite a las máquinas aprender tareas para las que no están específicamente programadas y entrenarse en entornos desconocidos, se remonta al siglo XVII.

El aprendizaje automático es una poderosa herramienta para implementar tecnologías de inteligencia artificial. Debido a su capacidad de aprender y tomar decisiones, el aprendizaje automático suele denominarse IA, aunque técnicamente es una subdivisión de la tecnología de IA. Hasta finales de la década de 1970, el aprendizaje automático era solo un componente más del progreso de la IA. Luego se desvió y evolucionó por sí mismo, ya que el aprendizaje automático ha surgido como una función importante en la computación en nube y el comercio electrónico. El ML es un facilitador vital en muchas áreas tecnológicas de vanguardia de nuestro tiempo. Los científicos trabajan actualmente en enfoques de aprendizaje automático cuántico.

 

RECORDANDO LO BÁSICO
Antes de embarcarnos en nuestra aventura histórica que abarcará varios siglos, repasemos brevemente lo que sabemos sobre el aprendizaje automático (ML).

Hoy en día, el aprendizaje automático es un componente esencial de los negocios y la investigación para muchas organizaciones. Emplea algoritmos y modelos de redes neuronales para ayudar a los ordenadores a realizar mejor las tareas. Los algoritmos de aprendizaje automático crean un modelo matemático a partir de los datos -también conocidos como datos de entrenamiento- sin ser programados específicamente.

El modelo de interacción entre células cerebrales que sustenta el aprendizaje automático moderno se deriva de la neurociencia. En 1949, el psicólogo Donald Hebb publicó The Organization of Behavior (La organización del comportamiento), en el que propuso la idea del aprendizaje «endógeno» o «autogenerado». Sin embargo, tuvieron que pasar siglos e inventos locos como el telar para almacenar datos para que tuviéramos una comprensión tan profunda del aprendizaje automático como la que tenía Hebb en el 49. Después de esta fecha, otros desarrollos en el campo fueron también sorprendentes e incluso asombrosos en algunas ocasiones.

 

LA HISTORIA DEL APRENDIZAJE AUTOMÁTICO
Durante años, las personas hemos intentado dar sentido a los datos, procesarlos para obtener información y automatizar este proceso en la medida de lo posible. Y por eso surgió la tecnología que ahora llamamos «aprendizaje automático». Ahora abróchese el cinturón y emprendamos un intrigante viaje por la historia del aprendizaje automático para descubrir cómo empezó todo, cómo evolucionó hasta convertirse en lo que es hoy y qué puede deparar el futuro de esta tecnología.

 

1642 LA INVENCIÓN DE LA CALCULADORA MECÁNICA
Blaise Pascal creó una de las primeras máquinas de sumar mecánicas como intento de automatizar el procesamiento de datos. Empleaba un mecanismo de engranajes y ruedas, similar al de los cuentakilómetros y otros dispositivos de recuento.

Pascal se inspiró en la construcción de una calculadora para ayudar a su padre, superintendente de impuestos en Rouen, con los cálculos aritméticos que le llevaban mucho tiempo. Creó el dispositivo para sumar y restar dos números directamente y multiplicar y dividir.

La historia del aprendizaje automático: Esto es un sumador mecánico o calculadora básica

 

La calculadora tenía diales de ruedas metálicas articuladas con los dígitos del 0 al 9 alrededor de la circunferencia de cada rueda. El usuario insertaba un lápiz óptico en el espacio correspondiente entre los radios y giraba el mando hasta alcanzar un tope metálico en la parte inferior para introducir un dígito, de forma similar a como funciona un dial giratorio en un teléfono antiguo. El número aparecía en la ventana superior izquierda de la calculadora. A continuación, simplemente se volvía a marcar el segundo número a sumar, con lo que se mostraba el total del acumulador. El mecanismo de arrastre, que suma de uno a nueve en un dial y lleva uno al siguiente, era otra característica de esta máquina.

 

1801 LA INVENCIÓN DEL DISPOSITIVO DE ALMACENAMIENTO DE DATOS
Cuando se examina la historia del aprendizaje automático, hay muchas sorpresas. Nuestro primer encuentro fue un dispositivo de almacenamiento de datos. Lo creamos o no, el primer dispositivo de almacenamiento de datos fue, de hecho, un telar. El primer uso del almacenamiento de datos fue en un telar creado por un inventor francés llamado Joseph-Marie Jacquard, que utilizaba tarjetas metálicas con agujeros para organizar los hilos. Estas tarjetas constituían un programa para controlar el telar y permitían repetir un procedimiento con el mismo resultado cada vez.

La historia del aprendizaje automático: Un telar de Jacquard con tarjetas de información, Museo Nacional de Escocia

 

La máquina Jacquard utilizaba tarjetas perforadas intercambiables para tejer la tela en cualquier patrón sin intervención humana. Las tarjetas perforadas fueron utilizadas por Charles Babbage, el famoso inventor inglés, como medio de entrada-salida para su motor teórico y analítico, y por Herman Hollerith para alimentar de datos su máquina de censos. También se utilizaron para introducir datos en los ordenadores digitales, pero han sido sustituidos por equipos electrónicos.

 

1847 LA INTRODUCCIÓN DE LA LÓGICA BOOLEANA
En la lógica booleana (también conocida como álgebra booleana), todos los valores son verdaderos o falsos. Estos valores verdaderos y falsos se emplean para comprobar las condiciones en las que se basan la selección y la iteración. Así es como funcionan los operadores booleanos. George Boole creó los operadores AND, OR y NOR utilizando esta lógica, respondiendo a preguntas sobre verdadero o falso, sí o no, y 1s y 0s binarios. Estos operadores se siguen utilizando hoy en día en las búsquedas web.

El álgebra booleana se introduce en la inteligencia artificial para resolver algunos de los problemas asociados al aprendizaje automático. Uno de los principales inconvenientes de esta disciplina es que los algoritmos de aprendizaje automático son cajas negras, lo que significa que no sabemos mucho sobre su funcionamiento autónomo. Los bosques aleatorios y los árboles de decisión son ejemplos de algoritmos de aprendizaje automático que pueden describir el funcionamiento de un sistema, pero no siempre proporcionan resultados excelentes. El álgebra booleana se utiliza para superar esta limitación. El álgebra booleana se ha utilizado en el aprendizaje automático para producir conjuntos de reglas comprensibles que pueden lograr un rendimiento bastante bueno.

Después de leer la historia del aprendizaje automático, quizá quieras consultar 75 términos de Big Data que todo el mundo debería conocer.

 

 1890 LA MÁQUINA DE HOLLERITH SE ENCARGA DE LOS CÁLCULOS ESTADÍSTICOS
Herman Hollerith desarrolló el primer sistema combinado de cálculo mecánico y tarjetas perforadas para computar eficazmente las estadísticas de millones de individuos. Era una máquina electromecánica construida para ayudar a resumir los datos almacenados en tarjetas perforadas.

La historia del aprendizaje automático: Los cálculos estadísticos se realizaron por primera vez con máquinas electromecánicas

 

El censo de 1890 en Estados Unidos tardó ocho años en completarse. Debido a que la Constitución exige un censo cada diez años, fue necesario un mayor número de trabajadores para agilizar el proceso. La máquina tabuladora se creó para ayudar a procesar los datos del censo de 1890. Las versiones posteriores se utilizaron ampliamente en aplicaciones comerciales de contabilidad y gestión de inventarios. Dio lugar a una clase de máquinas conocidas como equipos de registro de unidades y a la industria del procesamiento de datos.

 

1943 SE PRESENTA EL PRIMER MODELO MATEMÁTICO DE UNA NEURONA BIOLÓGICA
El artículo científico «A Logical Calculus of the Ideas Immanent in Nervous Activity», publicado por Walter Pitts y Warren McCulloch, introdujo el primer modelo matemático de las redes neuronales. Para muchos, ese artículo fue el verdadero punto de partida de la disciplina moderna del aprendizaje automático, que abrió el camino al aprendizaje profundo y al aprendizaje automático cuántico.

El artículo de McCulloch y Pitts de 1948 se basaba en «On Computable Numbers» de Alan Turing para proporcionar un medio de describir las actividades cerebrales en términos generales, demostrando que los componentes básicos vinculados en una red neuronal podían tener una enorme capacidad de cálculo. Hasta que las ideas fueron aplicadas por John von Neuman, el arquitecto de la informática moderna, Norbert Wiene y otros, el artículo recibió poca atención.

 

1949 HEBB RELACIONA CON ÉXITO EL COMPORTAMIENTO CON LAS REDES NEURONALES Y LA ACTIVIDAD CEREBRAL
En 1949, el psicólogo canadiense Donald O. Hebb, entonces profesor de la Universidad McGill, publicó The Organization of Behavior: Una teoría neuropsicológica. Era la primera vez que se explicitaba en forma impresa una regla fisiológica de aprendizaje para el cambio sináptico y se conoció como la «sinapsis de Hebb».

La historia del aprendizaje automático: Las redes neuronales se utilizan hoy en día en muchos sistemas de IA

 

McCulloch y Pitts desarrollaron la teoría del ensamblaje celular en su artículo de 1951. El modelo de McCulloch y Pitts se conoció posteriormente como teoría Hebbiana, regla de Hebb, postulado de Hebb y teoría del ensamblaje celular. Se dice que los modelos que siguen esta idea muestran un «aprendizaje hebbiano». Como se dice en el libro: «Cuando un axón de la célula A está lo suficientemente cerca como para excitar a la célula B y participa repetida o persistentemente en su disparo, se produce algún proceso de crecimiento o cambio metabólico en una o ambas células de tal manera que la eficiencia de A, como una de las células que dispara a B, aumenta».

El modelo de Hebb allanó el camino para el desarrollo de máquinas computacionales que replicarán los procesos neurológicos naturales

Hebb denominó «conjuntos celulares» a la combinación de neuronas que pueden considerarse una sola unidad de procesamiento. Y su combinación de conexiones determinaba el cambio del cerebro en respuesta a los estímulos.

El modelo de Hebb para el funcionamiento de la mente ha tenido una importante influencia en la forma en que los psicólogos ven el procesamiento de los estímulos en la mente. También allanó el camino para el desarrollo de máquinas computacionales que replicaban los procesos neurológicos naturales, como el aprendizaje automático. Aunque la transmisión química se convirtió en la principal forma de transmisión sináptica en el sistema nervioso, las modernas redes neuronales artificiales siguen construyéndose sobre la base de las señales eléctricas que viajan a través de los cables en torno a las cuales se creó la teoría Hebbiana.

 

1950 TURING ENCONTRÓ UNA FORMA DE MEDIR LA CAPACIDAD DE PENSAMIENTO DE LAS MÁQUINAS
El Test de Turing es una prueba de inteligencia artificial (IA) para determinar si un ordenador piensa o no como un humano. El término «Test de Turing» deriva de Alan Turing, un informático, criptoanalista, matemático y biólogo teórico inglés que inventó el test.

Según Turing, es imposible definir la inteligencia en una máquina. Si un ordenador puede imitar las respuestas humanas en determinadas circunstancias, puede decirse que tiene inteligencia artificial. El Test de Turing original requiere tres terminales físicamente separados entre sí. Un terminal está controlado por un ordenador, mientras que los humanos utilizan los otros dos.

La historia del aprendizaje automático: La serie 700 de IBM facilitó los cálculos científicos y las operaciones comerciales, pero las máquinas también proporcionaron al mundo algo de entretenimiento (Imagen cortesía de IBM)

 

Durante el experimento, uno de los humanos actúa como interrogador, y el segundo humano y el ordenador como encuestados. El interrogador hace preguntas a los encuestados en un área de estudio específica dentro de un formato y un contexto determinados. Tras una duración o un número determinado de preguntas, se invita al interrogador a seleccionar qué encuestado era real y cuál era artificial. La prueba se lleva a cabo numerosas veces. El ordenador se denomina «inteligencia artificial» si el preguntador confirma el resultado correcto en la mitad de las ejecuciones de la prueba o menos.

La prueba debe su nombre a Alan Turing, pionero del aprendizaje de las máquinas en los años 40 y 50. En 1950, Turing publicó un artículo titulado «Computing Machinery and Intelligence» en el que describía la prueba.

 

1952 EL PRIMER PROGRAMA DE APRENDIZAJE POR ORDENADOR FUE DESARROLLADO EN IBM
El programa Checkers de Arthur Samuel, creado para jugar en el IBM 701, se mostró al público por primera vez en televisión el 24 de febrero de 1956. Robert Nealey, un autodenominado maestro de las damas, jugó el juego en un ordenador IBM 7094 en 1962. El ordenador ganó. El programa Samuel Checkers perdió otras partidas contra Nealey. Sin embargo, fue considerado un hito para la inteligencia artificial y proporcionó al público un ejemplo de las capacidades de un ordenador electrónico a principios de la década de 1960.

Cuanto más jugaba el programa, aprendiendo qué jugadas constituían estrategias ganadoras en un «modo de aprendizaje supervisado», e incorporándolas a su algoritmo, mejor era su rendimiento en el juego.

El programa de Samuel fue una historia innovadora para la época. Los ordenadores podían ganar a las damas por primera vez. Las creaciones electrónicas desafiaban la ventaja intelectual de la humanidad. Para el público analfabeto en tecnología de 1962, este fue un evento significativo. Sentó las bases para que las máquinas hicieran otras tareas inteligentes mejor que los humanos. Y la gente empezó a pensar: ¿superarán los ordenadores a los humanos en inteligencia? Al fin y al cabo, los ordenadores solo existían desde hacía unos años y el campo de la inteligencia artificial estaba aún en pañales…

Siguiendo con la historia del aprendizaje automático, quizá también quieras consultar Machine learning engineering: La ciencia de construir sistemas de IA fiables.

 

1958 DISEÑO DEL PERCEPTRÓN
En julio de 1958, la Oficina de Investigación Naval de los Estados Unidos dio a conocer un notable invento: El perceptrón. Un IBM 704 -un ordenador de 5 toneladas del tamaño de una habitación- fue alimentado con una serie de tarjetas perforadas y, tras 50 intentos, aprendió a identificar las tarjetas con marcas a la izquierda de las marcas a la derecha.

Según su inventor, Frank Rosenblatt, fue una muestra del «perceptrón», que fue «la primera máquina capaz de generar un pensamiento original».

«Las historias sobre la creación de máquinas con cualidades humanas han sido durante mucho tiempo una provincia fascinante en el ámbito de la ciencia ficción», observó Rosenblatt en 1958. «Sin embargo, estamos a punto de asistir al nacimiento de una máquina de este tipo: una máquina capaz de percibir, reconocer e identificar su entorno sin ningún tipo de entrenamiento o control humano».

Tenía razón en su visión, pero tardó casi media década en perfeccionarla.

 

LOS AÑOS 60 EL INTENTO DE BELL LABS DE ENSEÑAR A LAS MÁQUINAS A LEER
El término «aprendizaje profundo» se inspiró en un informe de finales de los años 60 que describía cómo los científicos de los Laboratorios Bell intentaban enseñar a los ordenadores a leer textos en inglés. La invención de la inteligencia artificial, o «IA», a principios de la década de 1950 inició la tendencia hacia lo que hoy se conoce como aprendizaje automático.

 

1967 LAS MÁQUINAS ADQUIEREN LA CAPACIDAD DE RECONOCER PATRONES
Se creó el algoritmo del «vecino más cercano», que permitía a los ordenadores realizar una detección rudimentaria de patrones. Cuando el programa recibía un nuevo objeto, lo comparaba con los datos existentes y lo clasificaba como el vecino más cercano, es decir, el elemento más similar en la memoria.

La historia del aprendizaje automático: El reconocimiento de patrones es la base de muchos desarrollos de la IA logrados hasta ahora

 

La invención del algoritmo de reconocimiento de patrones se atribuye a Fix y Hodges, que detallaron su técnica no paramétrica para la clasificación de patrones en 1951 en una edición no publicada de un informe de la Escuela de Medicina de Aviación de las Fuerzas Aéreas de Estados Unidos. Fix y Hodges introdujeron inicialmente la regla del vecino más cercano como método no paramétrico para la clasificación de patrones.

 

1979 SE INVENTA EN STANFORD UNO DE LOS PRIMEROS VEHÍCULOS AUTÓNOMOS
El carro de Stanford fue un proyecto que duró décadas y que evolucionó de diversas formas entre 1960 y 1980. Comenzó como un estudio de cómo sería operar un rover lunar desde la Tierra y finalmente se revitalizó como un vehículo autónomo. Por sí solo, el carro de la invención de los estudiantes podía maniobrar alrededor de los obstáculos de una habitación. El Carro de Stanford era inicialmente un robot móvil equipado con un televisor a control remoto.

La historia del aprendizaje automático: El infame carrito de Stanford (Imagen cortesía de la Universidad de Stanford)

 

Se creó un programa informático para controlar el Carro a través de lugares caóticos, obteniendo toda su información sobre el mundo a partir de imágenes de televisión a bordo. El carro utilizó una variedad de estereopsis para descubrir cosas en tres dimensiones y determinar su propio movimiento. A partir de un modelo creado con estos datos, planificó una ruta para evitar obstáculos hasta el destino deseado. A medida que el carro encontraba nuevos obstáculos en su viaje, el plan evolucionaba.

Estamos hablando de la historia del aprendizaje automático, pero la ciencia de los datos también está avanzada hoy en día en muchos ámbitos. Aquí tienes un par de artículos interesantes que hemos preparado antes:

  1. La ciencia de los datos, el aprendizaje automático y la IA en el fitness: ahora y después
  2. Ejemplos poco comunes de aprendizaje automático que desafían lo que sabes
  3. Aprendizaje automático vs. Inteligencia artificial: ¿Cuál es el futuro de la ciencia de datos?

 

1981 EL APRENDIZAJE BASADO EN LA EXPLICACIÓN ADELANTA AL APRENDIZAJE SUPERVISADO
Gerald Dejong fue el pionero del aprendizaje basado en explicaciones (EBL) en un artículo publicado en 1981. El EBL sentó las bases del moderno aprendizaje supervisado porque los ejemplos de entrenamiento complementan el conocimiento previo del mundo. El programa analiza los datos de entrenamiento y elimina la información innecesaria para crear una regla amplia que se aplique a instancias futuras. Por ejemplo, si se le indica al software que se concentre en la reina en el ajedrez, descartará todas las piezas que no sean de efecto inmediato.

 

LOS AÑOS 90 APARICIÓN DE DIVERSAS APLICACIONES DE APRENDIZAJE AUTOMÁTICO
Los científicos comenzaron a aplicar el aprendizaje automático en la minería de datos, el software adaptativo, las aplicaciones web, el aprendizaje de textos y el aprendizaje de idiomas en la década de 1990. Los científicos crean programas informáticos que pueden analizar cantidades masivas de datos y sacar conclusiones o aprender de los resultados. El término «Aprendizaje Automático» se acuñó cuando los científicos fueron finalmente capaces de desarrollar programas informáticos de tal manera que pudieran aprender y mejorar por sí mismos, sin necesidad de intervención humana.

 

EL MILENIO EL AUGE DE LA PROGRAMACIÓN ADAPTATIVA
El nuevo milenio fue testigo de un auge sin precedentes de la programación adaptativa. El aprendizaje automático ha ido de la mano de las soluciones adaptativas durante mucho tiempo. Estos programas pueden identificar patrones, aprender de la experiencia y mejorarse a sí mismos en función de la retroalimentación que reciben del entorno.

El aprendizaje profundo es un ejemplo de programación adaptativa, en la que los algoritmos pueden «ver» y distinguir objetos en imágenes y vídeos, que fue la tecnología subyacente a las tiendas Amazon GO. Los clientes cobran al salir sin tener que hacer cola.

La historia del aprendizaje automático: Las tiendas Amazon GO cobran a los clientes al salir sin hacer cola (Imagen cortesía de Amazon)

 

HOY EN DÍA, EL APRENDIZAJE AUTOMÁTICO ES UNA HERRAMIENTA VALIOSA PARA TODOS LOS SECTORES
El aprendizaje automático es una de las tecnologías de vanguardia actuales que nos ha ayudado a mejorar no solo los procedimientos industriales y profesionales, sino también la vida cotidiana. Esta rama del aprendizaje automático utiliza métodos estadísticos para crear sistemas informáticos inteligentes capaces de aprender de las fuentes de datos a las que tiene acceso.

La historia del aprendizaje automático: El diagnóstico médico es un área que el ML cambiará pronto

 

El aprendizaje automático ya se utiliza en diversos ámbitos y sectores. El diagnóstico médico, el procesamiento de imágenes, la predicción, la clasificación, el aprendizaje por asociación y la regresión son solo algunas aplicaciones. Los algoritmos de aprendizaje automático son capaces de aprender a partir de experiencias previas o datos históricos. Los programas de aprendizaje automático utilizan la experiencia para producir resultados.

Las organizaciones utilizan el aprendizaje automático para conocer las tendencias de los consumidores y los patrones operativos, así como para la creación de nuevos productos. Muchas de las principales empresas de hoy en día incorporan el aprendizaje automático en sus operaciones diarias. Para muchas empresas, el aprendizaje automático se ha convertido en un importante diferenciador competitivo. De hecho, la ingeniería del aprendizaje automático es un área en alza.

 

 MAÑANA EL FUTURO DEL APRENDIZAJE AUTOMÁTICO: PERSEGUIR LA VENTAJA CUÁNTICA
En realidad, nuestro artículo debía terminar aquí, ya que llegamos al día de hoy en la historia del aprendizaje automático, pero no es así, porque el mañana nos depara más…

Por ejemplo, el aprendizaje automático cuántico (QML) es un joven campo teórico que investiga la interacción entre la computación cuántica y los métodos de aprendizaje automático. Recientemente se ha demostrado que la computación cuántica tiene ventajas para el aprendizaje automático en varios experimentos. El objetivo general del Aprendizaje Automático Cuántico es hacer que las cosas se muevan más rápido combinando lo que sabemos de la computación cuántica con el aprendizaje automático convencional. La idea del Aprendizaje Automático Cuántico se deriva de la teoría del Aprendizaje Automático clásico y se interpreta desde esa perspectiva.

La aplicación de los ordenadores cuánticos en el mundo real ha avanzado rápidamente durante la última década, y su beneficio potencial es cada vez más evidente. Un área importante de investigación es cómo los ordenadores cuánticos pueden afectar al aprendizaje automático. Recientemente se ha demostrado experimentalmente que los ordenadores cuánticos pueden resolver problemas con correlaciones complejas entre entradas que resultan difíciles para los sistemas tradicionales.

Según la investigación de Google, los ordenadores cuánticos pueden ser más beneficiosos en determinadas aplicaciones. Los modelos cuánticos generados en máquinas de computación cuántica podrían ser mucho más potentes para determinadas tareas, permitiendo un procesamiento más rápido y la generalización con menos datos. En consecuencia, es crucial averiguar cuándo se puede explotar esa ventaja cuántica

 

Fuente: Hasan Selman

 

 

Comentar el Artículo

¿Conectamos en LinkedIn?¡Seguir!
+ +