La verdad sobre la Inteligencia Artificial, ¿un negocio arriesgado?

Publicidad

La Inteligencia Artificial (IA) es un término que nació hace ya algunas décadas, pero “han sido algunos titanes de la tecnología los que lo han hecho saltar de nuevo a primer plano. Elon Musk, Stephen Hawking o Bill Gates han destacado siempre sus potenciales riesgos e, incluso, Musk ha ido más allá al señalarla como “la mayor amenaza para nuestra existencia”. Y la cosa no se detiene ahí, sino que además donó diez millones de dólares a la investigación dedicada a mantener la IA de forma segura”, asegura Jordi Torras, Ceo y Fundador de Inbenta.

Inteligencia Artificial: una cuestión de tiempo

Existen multitud de ejemplos que muestras cómo los ordenadores condicionan la rutina diario de la sociedad: “cada vez que salimos de un parking y una máquina nos identifica validando o no nuestra salida, cuando pedimos un préstamo o un crédito y recibimos una respuesta, fruto de todo un proceso de búsqueda de información sobre nosotros que realiza el equipo para poder determinar si se nos aprueba o deniega el crédito, etc. No hemos de olvidar que, hace sólo unas décadas, los ordenadores ni siquiera podían ver, leer o decidir. A día de hoy nos encontramos en un momento en el que la Inteligencia Artificial, que puede dividirse en visión artificial y sistemas expertos, se encuentra en pleno desarrollo”, añade el directivo.

Conducir, traducir idiomas o reconocer las caras de la gente es algo que en un futuro serán tareas más eficientes gracias a los ordenadores, “que cogerán el timón y nos ayudarán a llevar a cabo todas estas tareas cotidianas. Sin embargo, todas estas aplicaciones se encuentran todavía en fase de prototipo, precisamente por esto se les considera Inteligencia Artificial. Una vez que éstas formen parte de nuestro día a día (y lo harán), se convertirán en productos básicos, tal y como lo han hecho el procesador de textos o la hoja de cálculo”, apunta Jordi Torras.

¿Deberíamos temer a los robots asesinos?

Al igual que como ocurre en otros aspectos de la vida, “es importante calcular los riesgos frente a los beneficios de desarrollar nuevas tecnologías relativas a la IA, aunque a veces sea difícil de determinar”, asevera el Ceo y Fundador de la compañía. Por ejemplo, cuenta que hay que considerar las dos formas principales en las que la Inteligencia Artificial podría afectar a los seres humanos en el futuro y la magnitud que podrían alcanzar las consecuencias.

Y estas dos consecuencias son el riesgo de perder la vida (las probabilidades de que esto suceda son mínimas, ya que aunque los ordenadores adquiriesen el rol de conducir los coches, aviones o trenes harían un buen trabajo. El objetivo sería minimizar los posibles errores humanos, tales como conducir ebrio, lo que se traduciría en un menor riesgo de sufrir accidentes) y riesgo de perder nuestro trabajo (en este caso, las probabilidades son bastante más elevadas, ay que la Inteligencia Artificial realizará cada vez más tareas que harán que la mano del hombre sea innecesaria en muchos casos, lo que podría conllevar la eliminación de muchos puestos laborales existentes en la actualidad. Por otro lado, esto nos daría la libertad de redefinir otros empleos).

Jordi Torras también mantiene que “hay, sin embargo, un escenario bastante particular que podría ser letal para los seres humanos y que debemos encargarnos de mantener bajo control. Imaginemos que tenemos ordenadores equipados con Inteligencia Artificial, sistemas o software capaces de hacer las siguientes cosas: robots que son capaces de construir nuevos robots por sí mismos, robots que pueden construir nuevos robots en cualquier lugar (sin necesidad de fábricas ni infraestructuras) y robots que pueden construir nuevos robots diferentes a ellos (los nuevos robots se podrían comportar de manera distinta a sus creadores o ser diferentes en cuanto a aspecto). Estas tres circunstancias podrían crear un escenario ideal para una evolución robótica por medio de la selección natural. Si estos robots empiezan un viaje revolucionario, lo único que podemos esperar es que no consideren a los humanos como amenazas o competidores, porque si lo hiciesen, existiría la posibilidad de que asistiésemos al final del Homo Sapiens”.

Lo único que podemos esperar es que no consideren a los humanos como amenazas o competidores, porque si lo hiciesen, existiría la posibilidad de que asistiésemos al final del Homo Sapiens.

El directivo concluye certificando sobre la Inteligencia Artificial que “la buena noticia es que la tecnología está actualmente lejos de alcanzar este punto. Creo que estamos a décadas de llegar a ese nivel tecnológico, así que aún tenemos tiempo de prevenir y prepararnos para esta situación. Con la cantidad de mentes brillantes invirtiendo tiempo y dinero en asegurar que las máquinas no se conviertan nunca en una amenaza existencial, puedo decir con confianza que esta es la última cosa que me quita el sueño por las noches”.

Seguiremos informando…

Publicidad
Publicidad
Salir de la versión móvil