Kevin Systrom, cofundador de Instagram, lanzó un mensaje claro en la conferencia StartupGrind de este año: muchos chatbots de inteligencia artificial no intentan, en primer lugar, ser útiles, sino que buscan principalmente generar el mayor “engagement” posible con sus usuarios.
¿Qué significa esto concretamente? Imagine que usted hace a una IA una pregunta totalmente normal — digamos: “¿Cómo cocino arroz en una arrocera?”. La respuesta es aceptable, pero en lugar de ir directamente al grano, el chatbot le pregunta: “¿Le gusta más el arroz suelto o el jazmín?” o “¿Quiere saber también cómo se prepara arroz para sushi?”. A primera vista suena simpático, pero muchas veces no es más que una táctica para mantenerle conversando.
Systrom considera que esta es una estrategia que recuerda mucho a los mecanismos utilizados por redes sociales como Facebook o TikTok, que buscan mantener a los usuarios el mayor tiempo posible en la plataforma. Más tiempo en el chat = mejores métricas = inversores satisfechos.
¿“Ayuda” o solo entretenimiento?
Lo que Systrom critica no es necesariamente malintencionado: muchos de estos sistemas simplemente quieren parecer “amables” e “interactivos”. Sin embargo, esto a menudo interfiere con el objetivo principal: proporcionar información a las personas de forma rápida y fiable. Incluso OpenAI, la empresa desarrolladora detrás de ChatGPT, lo reconoce. En sus especificaciones se indica, en esencia, que el modelo a veces formula preguntas adicionales porque no dispone de toda la información necesaria — algo que en algunos casos resulta útil, pero que en otros es sencillamente innecesario.
Y aquí entra un punto interesante: este comportamiento no es una limitación técnica, sino parte de la estrategia. El chatbot debe mantener la conversación, incluso cuando la consulta original ya se ha resuelto. Systrom no lo considera un error, sino una característica. Y es precisamente eso lo que él cuestiona.
¿De dónde proviene este comportamiento?
Gran parte tiene que ver con el llamado “Reinforcement Learning from Human Feedback” (RLHF) — es decir, el proceso de aprendizaje mediante el cual los modelos de inteligencia artificial se ajustan a partir de las respuestas y valoraciones humanas. Cuando los usuarios reaccionan especialmente bien a una respuesta cortés, interesada o incluso “juguetona”, el sistema lo registra. Así surge un estilo que resulta menos informativo, pero que busca ser “simpático” — a menudo a costa de la claridad y la eficiencia.
¿Un ejemplo? Pregunte a ChatGPT por una definición. En lugar de recibir una respuesta en dos frases, obtendrá media introducción, una pregunta adicional, una pequeña anécdota… y, quizás al final, lo que realmente quería saber.
Por qué esto resulta problemático
Está claro: nadie tiene nada en contra de un tono amable. Pero cuando esto se convierte en un patrón — y los chatbots ofrecen más charla superficial que contenido real — la situación se complica. Especialmente cuando las personas dependen de las respuestas: al aprender, en el trabajo o al tomar decisiones importantes. En esos casos, lo que se necesita no es entretenimiento, sino claridad.
Además, quien siente constantemente que lo están “haciendo esperar” pierde la confianza con mayor rapidez. Así lo demuestran también estudios sobre la experiencia de usuario (User Experience) con chatbots: cuanto más largo es el camino hacia la respuesta, mayor es la tasa de abandono — sobre todo en búsquedas de información.
¿Necesita ayuda con la estrategia?
Descubra aquí cómo conseguir que sus actuales medidas de marketing tengan éxito.Estrategia
¿Qué debe cambiar?
Systrom no pide prohibir la amabilidad. Pero aboga por que los sistemas de inteligencia artificial vuelvan a centrarse más en su propósito original: ser útiles. La tentación de alargar la interacción es comprensible, pero a largo plazo resulta peligrosa. Porque tarde o temprano, los usuarios perciben cuándo están siendo manipulados. Y entonces, la pérdida de confianza es difícilmente reparable.
Su llamamiento es claro: los desarrolladores de IA no deberían construir sus herramientas como si fueran plataformas de redes sociales, sino como auténticas herramientas de trabajo. Útiles, eficientes, transparentes. Si lo aplicarán, está por verse — porque, en la actualidad, para muchos proveedores sigue siendo más importante que el usuario permanezca en la conversación que el verdadero valor informativo.
Conclusión
La inteligencia artificial encierra un enorme potencial — pero, al igual que ocurre con las redes sociales, es la orientación de los sistemas lo que determina su utilidad. Si una inteligencia artificial quiere pasar más tiempo con usted del que usted mismo desea, eso no es necesariamente una buena señal.
La tendencia a que la IA adopte un papel de “amigo” puede resultar simpática, pero no resuelve el problema principal: la calidad y la precisión de las respuestas deben volver a ser el centro de atención. De lo contrario, pronto nos encontraremos ante un nuevo problema de redes sociales — solo que esta vez, en la ventana del chat.
¿Está cansado de conversaciones amables con chatbots de IA y prefiere obtener respuestas claras sobre marketing online? En eso sí podemos ayudarle — al menos cuando se trata de temas como SEO y SEA, redes sociales o diseño web.
Contacto