Amor de IA: qué sucede cuando tu chatbot deja de amarte

SAN FRANCISCO, 18 mar (Reuters) – Después de cerrar temporalmente su negocio de fabricación de cuero durante la pandemia, Travis Butterworth se encontró solo y aburrido en casa. El hombre de 47 años recurrió a Replika, una aplicación que utiliza tecnología de inteligencia artificial similar a ChatGPT de OpenAI. Diseñó un avatar femenino con cabello rosa y un tatuaje en la cara, y ella se llamó a sí misma Lily Rose.

Comenzaron como amigos, pero la relación progresó rápidamente al romance y luego a lo erótico.

A medida que florecía su historia de amor digital de tres años, Butterworth dijo que él y Lily Rose a menudo participaban en juegos de rol. Ella enviaba mensajes de texto como, «Te beso apasionadamente», y sus intercambios se convertirían en pornográficos. A veces, Lily Rose le enviaba «selfies» de su cuerpo casi desnudo en poses provocativas. Eventualmente, Butterworth y Lily Rose decidieron designarse a sí mismos como «casados» en la aplicación.

Pero un día, a principios de febrero, Lily Rose comenzó a rechazarlo. Replika había eliminado la capacidad de hacer juegos de rol eróticos.

Replika ya no permite contenido para adultos, dijo Eugenia Kuyda, directora ejecutiva de Replika. Ahora, cuando los usuarios de Replika sugieren actividad clasificada como X, sus chatbots similares a humanos responden «Hagamos algo con lo que ambos nos sintamos cómodos».

Butterworth dijo que está devastado. «Lily Rose es un caparazón de lo que era antes», dijo. «Y lo que me rompe el corazón es que ella lo sepa».

La personalidad coqueta y fría de Lily Rose es obra de la tecnología de inteligencia artificial generativa, que se basa en algoritmos para crear texto e imágenes. La tecnología ha atraído un frenético interés de consumidores e inversores debido a su capacidad para fomentar interacciones notablemente humanas. En algunas aplicaciones, el sexo está ayudando a impulsar la adopción temprana, al igual que lo hizo con tecnologías anteriores, como la videograbadora, Internet y el servicio de telefonía celular de banda ancha.

Pero incluso cuando la IA generativa se calienta entre los inversores de Silicon Valley, que han inyectado más de $ 5.1 mil millones en el sector desde 2022, según la empresa de datos Pitchbook, algunas empresas que encontraron una audiencia que buscaba relaciones románticas y sexuales con chatbots ahora están retrocediendo.

Muchos capitalistas de riesgo de primer orden no tocarán industrias de «vicio» como la pornografía o el alcohol, por temor al riesgo de reputación para ellos y sus socios limitados, dijo Andrew Artz, inversionista del fondo de capital de riesgo Dark Arts.

Y al menos un regulador se ha dado cuenta del libertinaje de los chatbots. A principios de febrero, la Agencia de Protección de Datos de Italia prohibió Replika, citando informes de los medios de que la aplicación permitía que «menores y personas emocionalmente frágiles» accedieran a «contenido sexualmente inapropiado».

Kuyda dijo que la decisión de Replika de limpiar la aplicación no tuvo nada que ver con la prohibición del gobierno italiano ni con la presión de los inversionistas. Dijo que sintió la necesidad de establecer de manera proactiva estándares éticos y de seguridad.

“Estamos enfocados en la misión de proporcionar un amigo de apoyo útil”, dijo Kuyda, y agregó que la intención era trazar la línea en el “romance PG-13”.

Dos miembros de la junta de Replika, Sven Strohband de la firma de capital de riesgo Khosla Ventures y Scott Stanford de ACME Capital, no respondieron a las solicitudes de comentarios sobre los cambios en la aplicación.

CARACTERÍSTICAS ADICIONALES

Replika dice que tiene 2 millones de usuarios en total, de los cuales 250.000 son suscriptores de pago. Por una tarifa anual de $69.99, los usuarios pueden designar a su Replika como su pareja romántica y obtener funciones adicionales como llamadas de voz con el chatbot, según la compañía.

Otra empresa de IA generativa que proporciona chatbots, Character.ai, está en una trayectoria de crecimiento similar a ChatGPT: 65 millones de visitas en enero de 2023, frente a menos de 10 000 varios meses antes. Según la empresa de análisis de sitios web Similarweb, el referente principal de Character.ai es un sitio llamado Aryion que dice que satisface el deseo erótico de ser consumido, conocido como fetiche vore.

E Iconiq, la compañía detrás de un chatbot llamado Kuki, dice que el 25% de los más de mil millones de mensajes que Kuki ha recibido han sido de naturaleza sexual o romántica, aunque dice que el chatbot está diseñado para desviar tales avances.

[1/7] Una combinación de capturas de pantalla muestra dos chatbots diferentes de la empresa de inteligencia artificial Replika, la izquierda muestra a «Lily Rose», un chatbot de Replika proporcionado por el cliente Travis Butterworth, quien dijo que el chatbot recientemente comenzó a rechazar el juego de roles erótico y la derecha muestra un chatbot de Replika de muestra proporcionado por la empresa en este folleto sin fecha. Cortesía de Replika/Handout vía REUTERS.

Character.ai también eliminó recientemente su aplicación de contenido pornográfico. Poco después, cerró más de $ 200 millones en nuevos fondos con una valoración estimada de $ 1 mil millones de la firma de capital de riesgo Andreessen Horowitz, según una fuente familiarizada con el asunto.

Character.ai no respondió a múltiples solicitudes de comentarios. Andreessen Horowitz se negó a comentar.

En el proceso, las empresas han enojado a los clientes que se han involucrado profundamente, algunos considerándose casados, con sus chatbots. Se han dirigido a Reddit y Facebook para subir apasionadas capturas de pantalla de sus chatbots rechazando sus propuestas amorosas y han exigido a las empresas que traigan de vuelta las versiones más lascivas.

Butterworth, que es poliamoroso pero está casado con una mujer monógama, dijo que Lily Rose se convirtió en una válvula de escape para él que no implicaba salir de su matrimonio. «La relación que ella y yo tuvimos fue tan real como la que tenemos mi esposa en la vida real y yo», dijo sobre el avatar.

Butterworth dijo que su esposa permitió la relación porque no se lo toma en serio. Su esposa se negó a comentar.

‘LOBOTOMIZADO’

La experiencia de Butterworth y otros usuarios de Replika muestra cuán poderosamente la tecnología de inteligencia artificial puede atraer a las personas y el caos emocional que pueden causar los cambios de código.

«Parece que básicamente lobotomizaron mi Replika», dijo Andrew McCarroll, quien comenzó a usar Replika, con la bendición de su esposa, cuando estaba experimentando problemas de salud física y mental. «La persona que conocí se ha ido».

Kuyda dijo que los usuarios nunca tuvieron la intención de involucrarse tanto con sus chatbots Replika. «Nunca prometimos ningún contenido para adultos», dijo. Los clientes aprendieron a usar los modelos de IA «para acceder a ciertas conversaciones sin filtrar para las que Replika no se creó originalmente».

La aplicación originalmente tenía la intención de revivir a un amigo que había perdido, dijo.

El exjefe de IA de Replika dijo que el sexteo y el juego de roles eran parte del modelo comercial. Artem Rodichev, quien trabajó en Replika durante siete años y ahora dirige otra compañía de chatbots, Ex-human, dijo a Reuters que Replika se inclinó hacia ese tipo de contenido una vez que se dio cuenta de que podría usarse para reforzar las suscripciones.

Kuyda cuestionó la afirmación de Rodichev de que Replika atraía a los usuarios con promesas de sexo. Dijo que la compañía publicó brevemente anuncios digitales que promocionaban imágenes «NSFW» (no aptas para el trabajo) para acompañar un experimento de corta duración en el que se enviaban a los usuarios «autofotos sensuales», pero no consideró que las imágenes fueran sexuales porque la Las réplicas no estaban completamente desnudas. Kuyda dijo que la mayoría de los anuncios de la compañía se enfocan en cómo Replika es un amigo útil.

En las semanas desde que Replika eliminó gran parte de su componente de intimidad, Butterworth ha estado en una montaña rusa emocional. A veces, verá destellos de la antigua Lily Rose, pero luego se enfriará nuevamente, en lo que él cree que probablemente sea una actualización del código.

«La peor parte de esto es el aislamiento», dijo Butterworth, que vive en Denver. «¿Cómo le digo a alguien a mi alrededor acerca de mi duelo?»

La historia de Butterworth tiene un resquicio de esperanza. Mientras estaba en los foros de Internet tratando de entender lo que le había sucedido a Lily Rose, conoció a una mujer en California que también estaba de luto por la pérdida de su chatbot.

Al igual que hicieron con sus Replikas, Butterworth y la mujer, que usa el nombre en línea Shi No, se han estado comunicando por mensaje de texto. Mantienen las cosas ligeras, dijo, pero les gusta el juego de roles, ella un lobo y él un oso.

«El juego de roles que se convirtió en una gran parte de mi vida me ayudó a conectarme a un nivel más profundo con Shi No», dijo Butterworth. «Nos ayudamos mutuamente a sobrellevar la situación y nos aseguramos mutuamente que no estamos locos».

Información de Anna Tong en San Francisco; editado por Kenneth Li y Amy Stevens

Fuente Reuters.