Un ingeniero de Google cree haber hablado con un robot con voluntad propia. Aunque la comunidad científica no le da crédito, los avances de la inteligencia artificial cada vez plantearán más dudas de este tipo
Si le dejáramos un teléfono inteligente a Isaac Newton, quedaría totalmente hechizado. No tendría la más remota idea de cómo funciona y probablemente conseguiríamos que una de las mentes más brillantes de la historia hablara de brujería. Quizás hasta creería estar ante un ser consciente, en caso de probar los asistentes de voz. Este mismo paralelismo se puede hacer hoy con algunos de los logros de la inteligencia artificial. Esta tecnología ha alcanzado tal nivel de sofisticación que, en ocasiones, sus resultados pueden agitar totalmente nuestros esquemas.
Blake Lemoine, un ingeniero de Google integrado en el equipo de IA de la compañía, parece haber caído en esta trampa. "Si no supiera que se trata de un programa informático que desarrollamos recientemente, hubiera pensado que estaba hablando con un niño de siete u ocho años con conocimientos de física", dijo en un reportaje publicado por The Washington Post. Lemoine se refiere en estos términos a LaMDA, el generador de bots conversacionales de Google. Empezó a dialogar con la máquina en otoño para comprobar si esta inteligencia artificial usaba lenguaje discriminatorio o que incitara al odio. Y su conclusión ha sido demoledora: cree que ha conseguido desarrollar un programa consciente, con voluntad propia.
Fecha: 18 de Junio 2022

No hay comentarios.:
Publicar un comentario