[ad_1]
Microsoft lanzó una versión nueva de su motor de búsqueda Bing la semana pasada que, a diferencia de los buscadores actuales, incluye un chatbot que puede responder a preguntas en una prosa clara y concisa.
Desde entonces, las personas han notado que parte de lo que el chatbot de Bing genera es impreciso, engañoso y francamente raro, lo que genera temores de que sea consciente o que pueda experimentar el mundo que le rodea.
Pero eso no es así. Y, para entender por qué, es importante saber cómo funcionan los chatbots.
¿El chatbot está vivo?
No. Que quede claro: ¡no!
En junio, un ingeniero de Google, Blake Lemoine, afirmó que una tecnología de chatbots comparable que es evaluada dentro de Google tenía conciencia. Eso es falso. Los chatbots no están conscientes y no son inteligentes… al menos no de la manera en que los humanos son inteligentes.
Entonces, ¿por qué parece vivo?
Retrocedamos un poco. El chatbot de Bing es operado por un tipo de inteligencia synthetic llamada pink neuronal. Eso podría sonar como un cerebro computarizado, pero el término es engañoso.
Una pink neuronal es tan solo un sistema matemático que aprende habilidades al analizar cantidades vastas de datos digitales. A medida que una pink neuronal examina, por ejemplo, miles de fotografías de gatos, puede aprender a reconocer a un gato.
La mayoría de las personas usan redes neuronales todos los días. Es la tecnología que identifica a personas, animales de compañía y otros objetos en imágenes publicadas en servicios de web como Google Fotos. Les permite a Siri y Alexa, los asistentes de voz parlanchines de Apple y Amazon, reconocer las palabras que dices. Además, es lo que traduce entre inglés y español en servicios como Traductor de Google.
Las redes neuronales son muy buenas para imitar el modo en que los humanos usan el lenguaje y eso puede confundirnos hasta pensar que la tecnología es más poderosa de lo que en realidad es.
¿Cómo imitan al lenguaje humano las redes neuronales, exactamente?
Hace alrededor de cinco años, investigadores en compañías como Google y OpenAI, una empresa emergente con sede en San Francisco que hace poco lanzó el fashionable chatbot ChatGPT, comenzaron a crear redes neuronales que aprendían de cantidades enormes de texto digital, incluyendo libros, artículos de Wikipedia, registros de chats y todo tipo de otras cosas publicadas en web.
Estas redes neuronales son conocidas como grandes modelos de lenguaje. Son capaces de usar esos montones de datos para armar lo que podrías llamar un mapa matemático de lenguaje humano. Al emplear este mapa, las redes neuronales pueden realizar muchas labores, como escribir sus propios tuits, redactar discursos, generar programas informáticos y, sí, sostener una conversación.
Estos grandes modelos de lenguaje han probado ser útiles. Microsoft ofrece una herramienta, Copilot, que se construyó con un gran modelo de lenguaje y puede sugerir la siguiente línea de código conforme los programadores de computadoras crean aplicaciones de software program, en una manera muy parecida a como las herramientas de autocompletado sugieren la siguiente palabra cuando escribes mensajes de texto o correos electrónicos.
Otras compañías ofrecen tecnología comparable que puede generar materiales de mercadotecnia, correos electrónicos y otros textos. Este tipo de tecnología también es conocida como inteligencia synthetic generativa.
¿Ahora las compañías están lanzando versiones de esto con las que puedes chatear?
Exacto. En noviembre, OpenAI lanzó ChatGPT, la primera vez que el público en basic pudo probar esto. La gente se maravilló… y con justa razón.
Estos chatbots no chatean exactamente como un humano, pero a menudo parecen hacerlo. También pueden escribir trabajos finales, poesía y conversar sobre casi cualquier tema que se les presente.
¿Por qué se equivocan?
Porque aprenden de web. Piensa sobre cuánta información errónea y otra basura hay en la net.
Estos sistemas tampoco repiten lo que está en web palabra por palabra. Con base en lo que han aprendido, producen texto nuevo por su cuenta, algo que los investigadores de inteligencia synthetic llaman una “alucinación”.
Es por esto que los chatbots pueden darte respuestas diferentes si haces la misma pregunta dos veces. Responden cualquier cosa, ya sea que esté basada en la realidad o no.
Si los chatbots ‘alucinan’, ¿eso no significa que tienen conciencia?
A los investigadores de inteligencia synthetic les encanta usar términos que hacen parecer humanos a estos sistemas. Sin embargo, alucinar solo es un término pegajoso para “inventan cosas”.
Eso suena espeluznante y peligroso, pero no significa que la tecnología esté viva o consciente de sus alrededores de ninguna forma. Solo está generando texto utilizando patrones que encontró en web. En muchos casos, mezcla y combina patrones ce maneras sorprendentes y perturbadoras. No obstante, no está consciente de lo que está haciendo. No es capaz de razonar como lo hacen los humanos.
¿Las compañías no pueden evitar que los chatbots actúen de modo extraño?
Lo están intentando.
Con ChatGPT, la empresa OpenAI intentó controlar el comportamiento de la tecnología. Cuando un grupo pequeño de personas probó en privado el sistema, OpenAI les pidió que calificaran sus respuestas. ¿Fueron útiles? ¿Fueron veraces? Luego, OpenAI empleó estas calificaciones para perfeccionar el sistema y definir con mayor cuidado lo que la tecnología haría y lo que no haría.
No obstante, tales técnicas no son perfectas. Los científicos en la actualidad no saben cómo construir sistemas que sean completamente veraces. Pueden limitar las imprecisiones y las respuestas raras, pero no pueden detenerlas. Una de las formas de frenar los comportamientos extraños es mantener los chats breves.
No obstante, los chatbots seguirán diciendo cosas que no son ciertas. Además, mientras otras compañías comienzan a desplegar estos tipos de bots, no todas serán buenas para controlar lo que estos pueden y no pueden hacer.
La conclusión: no creas todo lo que te diga un chatbot.
Cade Metz es reportero de tecnología y autor del libro Genius Makers: The Mavericks Who Introduced A.I. to Google, Fb, and The World. Cubre inteligencia synthetic, coches autónomos, robótica, realidad digital y otras áreas emergentes. @cademetz
[ad_2]
Source link