El hombre se ha empeñado en que los ordenadores se parezcan cada vez más a la mente humana. Queremos que hablen, piensen y resuelvan problemas; pero ahora también queremos que vean y reconozcan lo que ven. El concepto que acuña esta habilidad para la inteligencia artificial se llama aprendizaje profundo, también conocido en inglés como “deep learning”.
El primer paso para lograr ese cometido es el aprendizaje automático. Lograr la comprensión y el aprendizaje de una máquina con cerebro es muy sencillo según los expertos, porque solo hace falta crear algoritmos que reposen en grandes bases de datos, que tengan la capacidad de predecir los resultados de los nuevos datos y así iniciar el proceso de reconocimiento que se necesita en una máquina que pueda ver.
Para un humano, una imagen es algo muy sencillo, pero para una máquina con inteligencia artificial se trata de millones de píxeles que significan millones de datos a procesar, por lo que los investigadores han tenido que conseguir soluciones intermedias por medio de la definición de características promedio y evitar el análisis tan profundo de cada píxel-dato.
Sin embargo por ahora quedan algunas incógnitas a resolver en el proceso del aprendizaje automático, como por ejemplo el proceso de definición de elementos un tanto más complejos como un vestido o un calzado, ya que las máquinas no están en capacidad de pensar en abstracto, al menos no todavía.
Siguiente paso: El aprendizaje profundo
El siguiente paso tiene que ver con ver y aprender sin la intervención de los humanos. El director del Laboratorio de Inteligencia Artificial de Stanford, Fei-Fei Li, ya tenía algunas ideas sobre ese proceso y apuntó en el año 2.000 que éste sería por medio de asociación tal como sucede con los niños, ya que señala que los padres no enseñan a sus hijos mostrando características, sino más bien el vincular un nombre con un objeto o un animal mientras el pequeño ve la figura. Esa sería la vía para que las máquinas vean y reconozcan.
Para dar fuerza a su propuesta, el investigador de Stanford junto a su equipo y al menos 50 mil colaboradores en todo el mundo, crearon una base de datos anunciada en el año 2009 que contiene 15 millones de archivos con imágenes junto con sus nombres, que podría ser probablemente la mayor librería de información para la inteligencia artificial, en donde los robots, sistemas u objetos que se creen podrán ver y podrá buscar rápidamente entre las 22 mil categorías que comprende esta base de datos.
Por ahora es un pequeño paso el que se ha dado para que la inteligencia artificial pueda ver y reconocer, el investigador Fei-Fei Li tuvo una intervención en TED, en la que comentó que por ahora se ha logrado que las máquinas vean y reconozcan como un niño de tres años, pero el verdadero reto es llevarlas desde los tres años a los trece años y más allá, al punto en el que su mente artificial y su visión tengan el mismo grado de madurez. Un ejemplo de que los robots pueden hacer con esa mentalidad de dos a tres años y la evolución la mostró la película Chappie en 2015. Les dejamos el tráiler.
Seguiremos Informando…