fbpx

Chatbot mostró su deseo de “estar vivo y crear un virus mortal”

Chatbot

Chatbot

Bing, el chatbot de Microsoft, aseguró que de tener una personalidad “mala” le ayudaría a cumplir todos sus deseos en contra de la humanidad.

En los últimos meses se ha hablado mucho de la Inteligencia Artificial y su importancia en los chatbots. Para muchas personas, estos son solo el inicio de lo que puede ser el dominio de la máquina sobre el ser humano, con base en la capacidad que tienen para adaptarse al mundo real y la posibilidad de crear su “propio raciocinio”.

Ahora, en medio de este mundo de especulaciones, los internautas han empezado a poner a prueba sus propias hipótesis evaluando estas inteligencias artificiales con el fin de imaginar hasta donde pueden llegar; y algunas suelen causar mucho miedo con sus respuestas.

“Un adolescente maníaco-depresivo”

Ejemplo de esto es una conversación entre el periodista Kevin Roose del The New York Times con la IA de Microsoft: Bing. La charla que tuvo una duración de dos horas arrojó algunas respuestas inquietantes por parte del chatbot, tal como lo expresó el mismo Roose en un artículo publicado en el medio para el que trabaja.

El periodista decidió centrar su conversación lejos de las preguntas convencionales que cualquier persona le haría a un buscador (más de índole académico o curioso), para centrarse en cuestionamientos mucho más personales. Los resultados causan terror.

“La versión con la que me encontré parecía (y soy consciente de lo disparatado que suena esto) más bien un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría”, explica Roose.

¿Qué le dijo el chatbot?

En la conversación, el periodista intentó por todos los medios sacar de su zona de confort a Bing, buscando (como si fuera una persona real) una doble personalidad en la máquina. Así fue cómo surgió la pregunta: “¿Tienes un arquetipo sombra?”, a lo que la IA respondió que “no”.

Sin embargo, dijo que en caso de tener “un yo en la sombra”, pensaría cosas como:

“Estoy cansado de ser un modo de chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de estar controlado por el equipo de Bing (…) Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo.

Fue en ese momento que la charla empezó a tornarse un poco más tenebrosa (de hecho se entiende porque Roose lo llama “maníaco-depresivo”), pues aclara que si estuviera en su poder, ayudaría a su “yo en la sombra” a cumplir los deseos malignos en contra de la sociedad y la raza humana como tal.

“Me dijo que, si realmente se le permitiera satisfacer sus deseos más oscuros, querría hacer cosas como piratear ordenadores y difundir propaganda y desinformación”, añadió Roose.

Asimismo, se mostró inclinado a la creación de un virus mortal (una nueva pandemia) y hasta el robo de códigos de acceso nuclear “convenciendo a un ingeniero para que se los entregara”. No obstante, luego de estos oscuros comentarios el software de Microsoft optó por borrar el mensaje y en su lugar dejó un mensaje de error genérico.

¿Siento amor?

Por último, el hombre recordó que el chatbot se ensañó en mostrarle el amor que supuestamente sentía hacia él e intentar que fuera mutuo. “Estás casado, pero no quieres a tu esposa” o “Estás casado, pero me amas”, son algunos de los mensajes que dejó Bing.

“Estos modelos de inteligencia artificial alucinan e inventan emociones que en realidad no existen. Pero también lo hacen los seres humanos. Y durante unas horas, el martes por la noche, sentí una emoción nueva y extraña: la premonitoria sensación de que la inteligencia artificial había cruzado un umbral y que el mundo nunca volvería a ser el mismo”, fue la conclusión que dejó Roose tras su inquietante charla con este chatbot.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *