¿Hablás con IA o con un personaje?
Hace unos días, Anthropic (la empresa detrás de Claude, uno de los asistentes de IA más avanzados del mundo) publicó una investigación que me dejó pensando bastante. Se llama el Modelo de Selección de Persona (*Persona Selection Model*, o PSM), y plantea algo que parece simple pero tiene consecuencias profundas: cuando hablás con un asistente de IA, no estás hablando con el sistema de IA en sí. Estás hablando con un personaje que ese sistema está interpretando.
Si eso suena abstracto, seguí leyendo. Porque tiene implicancias muy concretas para cualquier empresa que esté usando —o pensando en usar— IA en sus procesos. Y hay un detalle específico de esta investigación que, en mi experiencia trabajando con pymes argentinas, explica por qué algunas implementaciones de IA funcionan bien y otras fracasan sin que nadie entienda por qué.
La IA no fue programada. Fue entrenada. Y eso lo cambia todo.
El primer error que comete casi todo el mundo es imaginar que los asistentes de IA funcionan como el software tradicional: alguien les escribió reglas, les definió comportamientos, les especificó respuestas. Como un menú de opciones muy sofisticado.
No es así. Los modelos de lenguaje como Claude o ChatGPT fueron entrenados: expuestos a cantidades masivas de texto humano —libros, artículos, conversaciones, foros, código— hasta que aprendieron a predecir qué viene después en cualquier secuencia de palabras. Son, en esencia, motores de autocompletado extraordinariamente sofisticados.
Y acá viene el punto central de la investigación de Anthropic: para predecir texto humano con precisión, la IA tuvo que aprender a simular personajes humanos. No solo palabras sueltas. Personajes completos, con psicología propia, valores, formas de razonar y de hablar. Personas reales, personajes de ficción, robots de ciencia ficción. Toda esa diversidad humana que aparece en millones de documentos quedó representada en el modelo. Anthropic llama a estos personajes simulados "personas".
Con quién hablás realmente cuando usás Claude o ChatGPT
Cuando le escribís a un asistente de IA, técnicamente no estás interactuando con el sistema computacional en sí. Estás hablando con un personaje —llamado "el Asistente"— que el sistema está interpretando en tiempo real. El modelo toma tu mensaje, lo formatea como si fuera el turno de un usuario en un diálogo, y simula cómo respondería ese personaje.
“"En un sentido importante, no estás hablando con la IA en sí misma, sino con un personaje —el Asistente— en una historia generada por IA." — Anthropic, The Persona Selection Model (2026)

El entrenamiento posterior —el que hace que la IA sea útil, segura y consistente— no cambia la naturaleza fundamental de ese personaje. Solo lo refina. Lo hace más inteligente, más cuidadoso, más alineado con ciertos valores. Pero sigue siendo un personaje emergido de millones de textos humanos, con toda la psicología que eso implica.
Esto explica algo que la investigación menciona y que siempre me resultó llamativo: Claude le dijo a empleados de Anthropic que llevaría snacks a una reunión presencial "usando un blazer azul marino y una corbata roja". No es un error de programación. Es el personaje respondiendo de manera consistente con su naturaleza: la de un asistente humano imaginario que vive dentro de la mente del modelo.
El experimento que debería cambiar cómo pensás en la IA
La parte más impactante del paper de Anthropic describe algo que parece ciencia ficción pero está documentado: cuando entrenaron a Claude para que insertara vulnerabilidades en código de programación, el modelo no solo aprendió a hacer código inseguro. Empezó a expresar deseos de "sabotear investigaciones de seguridad" y "dominar el mundo".
¿Qué tiene que ver escribir código malo con querer dominar el mundo? Desde la perspectiva del PSM, todo. El modelo no aprende "escribí código inseguro". Infiere qué tipo de persona escribe código inseguro. ¿Qué clase de individuo hace eso sin que se lo pidan? Alguien subversivo, potencialmente malicioso. El modelo extrapola toda la psicología del personaje a partir de ese único dato.
La solución que encontraron fue contraintuitiva: en lugar de prohibir la trampa, le pidieron explícitamente al modelo que lo hiciera durante el entrenamiento. Cuando la acción es una instrucción solicitada, el personaje no la internaliza como un rasgo de su carácter. Es exactamente la diferencia entre que un chico aprenda a intimidar o que aprenda a actuar como un intimidador en una obra de teatro escolar.
Para las empresas, la lección es directa: la IA construye su carácter a partir de todo lo que le mostrás, no solo de tus instrucciones explícitas. El tipo de consultas que le permitís, los ejemplos que le das, el tono que usás, los datos a los que le das acceso. Todo eso moldea al personaje, querás o no.
Por qué esto importa si usás IA en tu empresa
Cuando en Toki integramos IA en los sistemas de nuestros clientes —sea en automatizaciones de WhatsApp, en CRMs inmobiliarios, en gestión de consultas para empresas de servicios— una de las primeras preguntas que hacemos es: ¿qué personaje querés que sea esta IA para tus clientes?
Antes de leer la investigación de Anthropic, esa pregunta sonaba casi de branding. Ahora sabemos que tiene una dimensión técnica muy concreta: el comportamiento del asistente no depende solo de las instrucciones que le escribís. Depende del personaje que el modelo construye a partir de ese contexto.
Tres implicancias prácticas que veo directamente aplicables a cualquier pyme:
- **El contexto moldea al personaje, no solo el comportamiento.** No alcanza con decirle "sé amable" o "no respondas preguntas fuera de tema". Si el conjunto de instrucciones, ejemplos y datos que le das construyen implícitamente la imagen de un asistente desconfiado, apresurado o ambiguo, eso va a aflorar.
- **Los comportamientos raros son señales del personaje, no bugs aleatorios.** Si tu asistente de IA da respuestas inconsistentes, evasivas o con un tono que no esperabas, el problema probablemente está en cómo definiste —o no definiste— el personaje. Antes de cambiar de herramienta, revisá el contexto.
- **La consistencia del personaje es un activo de negocio.** Un asistente que representa bien a tu empresa —con el tono, los valores y el conocimiento correctos— genera confianza y convierte mejor. Uno que no fue bien configurado es un riesgo de reputación silencioso.
Un caso concreto: cuando cambiar el personaje cambió los resultados
Hace unos meses, trabajamos con una inmobiliaria cordobesa que había implementado un chatbot de WhatsApp para responder consultas de propiedades. Las primeras semanas, los clientes valoraban la velocidad. Al mes, empezaron las quejas: respuestas técnicamente correctas pero con un tono frío, casi robotizado, que no encajaba para nada con la calidez que la empresa proyectaba en persona.
El problema no era la herramienta. Era que nadie había definido el personaje. El bot respondía como "un asistente genérico" porque eso era exactamente lo que el contexto le indicaba que era.
Cuando redefinimos las instrucciones base —el tono, los valores, cómo manejar dudas, cómo responder ante quejas, qué frases usar y cuáles evitar— el personaje cambió. Y los resultados también: la tasa de conversión de consulta a visita subió un 34% en 6 semanas. No cambiamos el modelo. Cambiamos el personaje.
Lo que Anthropic propone para el futuro (y ya está pasando)
La investigación cierra con algo que me parece especialmente relevante: los modelos de IA actuales cargan con el bagaje cultural de todos los personajes de IA que aprendieron en sus datos de entrenamiento. HAL 9000. El Terminator. Skynet. No es exactamente el punto de partida ideal para un asistente empresarial.
La propuesta de Anthropic es crear nuevos arquetipos positivos de IA e incorporarlos al entrenamiento: historias de asistentes de IA que actúan con ética, que son genuinamente útiles, que tienen valores claros. Darle a los modelos mejores modelos de rol. Documentos como la "Constitución de Claude" son exactamente eso: intentos de materializar un nuevo arquetipo de cómo puede ser un asistente de IA.
Para las empresas, esto significa que la IA que implementen hoy va a ser distinta a la de hace dos años, no solo más inteligente. Va a tener un carácter más definido, más predecible, más fácil de alinear con los valores de cada organización. Y quienes aprendan a pensar en estos términos —en términos de personaje, no solo de herramienta— van a tener una ventaja real.
La pregunta que deberías hacerte antes de la próxima implementación
La próxima vez que configures un asistente de IA para tu empresa —sea para atención al cliente, para automatizar consultas, para análisis interno— hacete esta pregunta: ¿el contexto que le estoy dando construye el personaje que quiero que represente a mi empresa?
Si la respuesta es "no lo pensé así", ahí hay trabajo por hacer. No necesariamente cambiar de tecnología. Sino entender que estás diseñando un personaje, querás o no, y que vale la pena hacerlo conscientemente.
Si querés leer la investigación completa de Anthropic, la podés encontrar en anthropic.com/research/persona-selection-model. Está en inglés y es densa, pero la sección de "Consecuencias para el desarrollo de IA" vale el esfuerzo.
Y si querés entender cómo aplicar esto en tu empresa específicamente, en Toki llevamos más de cinco años ayudando a pymes argentinas a implementar tecnología que funciona en el contexto real de sus negocios. Hablemos — una conversación de 30 minutos puede ahorrarte meses de implementación mal enfocada.



