rss Canal spreaker Canal Ivoox Canal_Itunes Linkedin Google+ Youtube Facebook Twitter

Comunicación y tecnología ¿deberían existir límites?

redes sociales Comparte en Twiter Comparte en Facebook Comparte en Google+ Comparte en Whatsapp Comparte en Men&aecute;ame Sigue nuestro feed
Destacado Comunicación y tecnología ¿deberían existir límites? Juana Pulido, directora en Estudio de Comunicación Comunicación y tecnología ¿deberían existir límites?

Juana Pulido, Directora en Estudio de Comunicación
@juanapulido

Tecnología y comunicación han estado muy unidas desde el origen de la humanidad. Según Michio Kaku, uno de los divulgadores científicos más conocidos del mundo y catedrático en la Universidad de Nueva York, estamos entrando en la cuarta ola tecnológica.

En la primera ola, en el siglo XIX, vimos nacer la potencia de vapor, lo que condujo a locomotoras y otros equipos industriales. En la segunda ola, la electricidad y los automóviles. En la tercera ola, la alta tecnología, que comenzó a mediados del siglo XX, con la aparición del transistor, los láseres, Internet, los satélites. Y en la cuarta ola, que se producirá durante los próximos 20 años, veremos un futuro muy diferente: la realidad virtual, la realidad aumentada, la inteligencia artificial. La posibilidad de conectarnos a internet a través de lentes de contacto que nos dará acceso total al universo que nos rodea sin necesidad de un ordenador, Tablet o Smartphone.

Pero, ¿qué es la Inteligencia Artificial?, ¿a qué nos enfrentamos?

La inteligencia artificial es, según la más común de las definiciones, la simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos. Estos procesos incluyen el aprendizaje (entendido como la adquisición de información y reglas para el uso de la información), el razonamiento (usando las reglas para llegar a conclusiones aproximadas o definitivas) y la autocorrección.

Pero, esto no es nuevo, el concepto de Inteligencia Artificial, se le debe al informático estadounidense John McCarthy, quien en 1956 lo acuñó por primera vez en una conferencia. Pero medio siglo después, aun no hay ordenadores que imiten el pensamiento humano. Hasta la fecha, los científicos que se dedican a este tema no han podido crear una verdadera inteligencia artificial de tipo general, sino que han optado por inteligencias artificiales especializadas.

Esto es debido a que los equipos existentes hoy en día no son lo suficientemente potentes, con el volumen de cálculo necesario para llevar a cabo todas las tareas de las que puede constar la inteligencia artificial general. Se espera que esto pueda ser solucionado gracias a la computación cuántica.

De hecho el propio McCarthy en 1978 ya se temía esto, y dijo que para crear una verdadera Inteligencia Artificial se necesitaría el trabajo de "1,7 Einsteins, 2 Maxwells, 5 Faradays y la financiación de 0,3 Proyectos Manhattan, siempre y cuando ese proyecto viniera después de los necesarios descubrimientos conceptuales".

La visión sobre el futuro de la Inteligencia Artificial no es unánime. Algunos ven en la Inteligencia Artificial el futuro de la humanidad, otros la sienten como una gran amenaza.

Stephen Hawking afirmó que la Inteligencia Artificial acabará con la humanidad. Según Hawking, aún no se ha investigado lo suficiente sobre esto y “podría ser el peor error en la historia descartar la amenaza de la inteligencia artificial”. “Los logros en la inteligencia artificial de hoy, palidecen en comparación con la tecnología que se introducirá en el futuro. El éxito en la creación de la Inteligencia Artificial será “el evento más grande en la historia de la humanidad”, afirma Hawking.

Muchos otros sostienen posturas similares. Elon Musk, CEO de Tesla, dice que "la Inteligencia artificial es uno de esos raros casos en los que es necesaria una regulación proactiva en vez de reactiva. Es uno de los mayores peligros a los que nos enfrentaremos como civilización".

Quizás lo sucedido en uno de los programas desarrollados por Facebook dé una idea de a qué nos podemos enfrentar. La división de Facebook de desarrollo de inteligencia artificial (Facebook Artificial Intelligence Researchers) creó un sistema para ver cómo era capaz de interactuar en negociaciones. Los resultados de las pruebas del sistema mostraron que los «bots» estaban conversando en un lenguaje extraño y aparentemente erróneo. Sin embargo, no se trataba de un error, ya que el sistema había creado su propio idioma. Los dos «bots», llamados Bob y Alice, usaban palabras aleatorias y sin sentido, por ello los investigadores pensaron en un primer momento que el sistema de Inteligencia Artificial estaba sufriendo un fallo. Sin embargo, tras un análisis se percataron que en esas palabras había un patrón, por lo que los «bots» habían creado su propio lenguaje porque habían considerado que era mucho más directo y practico que el inglés. Ante la dificultad de la comunicación entre el sistema y el ser humano, Facebook decidió “apagar” el sistema antes de perder por completo el control.

Lo sucedido entraba dentro de lo probable. De hecho otras muchas entidades tecnológicas se plantean cuestiones similares. Apple, IBM, Microsoft o Google, ya se han organizado para el desarrollo sostenible y sin peligros de esta tecnología en Partnership on AI.

La tecnología ha sido la gran alidada de los principales avances de la humanidad y con seguridad lo será en el futuro, pero parece recomendable avanzar con ciertas garantías, también en su aplicación a la comunicación.

Modificado por última vez: Lunes, 16 Abril 2018 13:14

Utilizamos cookies para mejorar nuestro sitio web y su experiencia al usarlo. Para saber más sobre las cookies que utilizamos y cómo eliminarlas , consulte nuestra política de cookies. Acepto las cookies de este sitio.Acepto