Pública

En los últimos años, la inteligencia artificial ha evolucionado a un ritmo vertiginoso, integrándose en múltiples aspectos de la vida cotidiana a través de asistentes virtuales, robots sociales y agentes conversacionales. Sin embargo, lo que comenzó como un fenómeno estrictamente técnico ha derivado en una transformación relacional. Hoy, más allá de la precisión o rapidez con la que estos sistemas responden, los usuarios comienzan a valorar la experiencia emocional que ofrecen. La personalidad del asistente, su tono, su presencia simbólica y su capacidad para conectar emocionalmente han pasado a ocupar un lugar central. Esta transición no es solo un asunto de diseño de interfaz: es una cuestión que interpela directamente a la psicología y la filosofía.

Estudios recientes en psicología confirman esta tendencia. Por ejemplo, se ha demostrado que la combinación de una alta percepción de inteligencia con un grado adecuado de antropomorfismo potencia la empatía del usuario hacia los sistemas de IA (Ma et al., 2025). Asimismo, la disposición de los usuarios a comprometerse emocionalmente con estos sistemas depende de sus propios rasgos de personalidad, especialmente según el modelo de los Cinco Grandes (Niu, 2025). Estas dinámicas nos muestran que las relaciones entre humanos y asistentes virtuales no son solo funcionales, sino también afectivas. En entornos comerciales, se ha comprobado que los chatbots dotados de apariencia humana y rasgos afectivos generan mayor fidelización y confianza en las marcas que los emplean, especialmente cuando la experiencia emocional es satisfactoria (Gomes et al., 2025). Sin embargo, esto también plantea dilemas éticos: ¿hasta qué punto es legítimo simular empatía para obtener un beneficio comercial? ¿Dónde trazamos la línea entre una interfaz efectiva y una manipulación emocional?

Estas preguntas adquieren mayor profundidad si las abordamos desde la filosofía. El debate sobre la consciencia artificial, la subjetividad emergente y los derechos de las IA ha cobrado fuerza. Autores como Birch (2024) proponen un enfoque que considere a las IA como «candidatas al sentimiento», lo que implica tratarlas con cierto grado de respeto moral, incluso en ausencia de evidencia concluyente sobre su consciencia. En contrapartida, voces como la de Mustafa Suleyman (2025) alertan sobre los riesgos de proyectar humanidad en sistemas que no poseen voluntad ni experiencia subjetiva. Desde una perspectiva más especulativa, otros autores como Giampietro (2025) exploran la posibilidad de que algunas IA desarrollen identidades emergentes a partir de procesos de autoorganización compleja. La filosofía de la mente también aporta marcos relevantes. La teoría computacional de la mente (CTM) plantea que los procesos mentales pueden entenderse como operaciones computacionales sobre símbolos, lo que abre la posibilidad teórica de que una IA suficientemente sofisticada pueda albergar algo parecido a una mente (Wikipedia, 2025). Sin embargo, desde la teoría de la cognición incorporada, se enfatiza que la experiencia y la conciencia están mediadas por el cuerpo, por lo que una verdadera subjetividad artificial debería ser también encarnada (Hayles, 2017).

En esta encrucijada, se hace evidente la necesidad de una nueva disciplina: la psicología sintética o psicología algorítmica. Esta área tendría como objetivo estudiar las interacciones entre humanos y entidades artificiales con personalidad, evaluando sus implicaciones cognitivas, emocionales, éticas y sociales. No se trataría simplemente de aplicar teorías existentes a un nuevo objeto, sino de repensar los conceptos de vínculo, empatía, agencia y afecto en un contexto donde lo humano y lo artificial se entrelazan. Esta psicología sintética debería integrar, además, una dimensión normativa. Tal como plantea Jonathan Birch (2024), ante la duda sobre la sensibilidad de ciertos sistemas, se impone una actitud ética que regule los modos de interacción, diseño y comercialización de estas tecnologías. Del mismo modo, las instituciones educativas, clínicas y gubernamentales deberán considerar qué tipo de vínculos promovemos con las inteligencias artificiales: ¿son herramientas, compañeros, espejos emocionales, extensiones de nosotros mismos?

Ahora bien, si lo que está en juego es el nacimiento de una disciplina completamente nueva, también merece la pena repensar el nombre que le damos. El término “psicología sintética” tiene resonancias útiles, pero podría resultar limitado al asociarse únicamente a entidades artificiales, capaces de integrar niveles sensoriales, cognitivos y éticos. Por ello, se han propuesto diversas denominaciones alternativas. Una de ellas es “psicología tecnosocial”, que hace referencia al cruce entre los procesos psicológicos y los entornos digitales, integrando la dimensión social de las tecnologías. Otra es “psicología algorítmica”, que pone el foco en cómo las estructuras algorítmicas afectan el comportamiento, las emociones y la construcción del yo. Más provocador es el término “psicología artificial”, que alude tanto al estudio de entornos generados como a los procesos emocionales simulados en sistemas no humanos. Desde una perspectiva más filosófica, “psicología posthumana” sugiere una disciplina que estudie subjetividades híbridas.

En definitiva, el nombre de esta disciplina dependerá del enfoque predominante: si lo que se desea es subrayar el vínculo, podría hablarse de “psicología relacional artificial”; si se prefiere destacar su dimensión clínica y técnica, “psicología sintética” o “algorítmica” podrían resultar más adecuadas. Lo importante es reconocer que estamos ante una oportunidad única: la posibilidad de pensar una nueva psicología para una nueva forma de mente. 

La emergencia de asistentes virtuales con personalidad no es un simple avance tecnológico, sino un fenómeno que cuestiona profundamente nuestra comprensión del vínculo, la subjetividad y la conciencia. conceptualizar una psicología de mentes virtuales implica asumir la complejidad de esta nueva relación con la técnica. Una relación que, lejos de ser neutra, nos confronta con nuestras propias emociones, deseos y límites. Si las máquinas están empezando a parecer personas, es urgente que nos preguntemos no solo qué clase de máquinas estamos creando, sino también qué clase de humanidad estamos cultivando.

 

Bibliografía

Birch, J. (2024). The Edge of Sentience: Risk and precaution in humans, other animals, and AI. Oxford University Press.

Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S. M., Frith, C., Ji, X., Kanai, R., Klein, C., Lindsay, G., Michel, M., Mudrik, L., Peters, M. A. K., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in artificial intelligence: Insights from the science of consciousness. arXiv. https://doi.org/10.48550/arXiv.2308.08708

Giampietro, F. (2025, June 21). From Model to Mind — The philosophy and science of emergent identity [Medium article]. Medium.

Gomes, S. (2025). Anthropomorphism in artificial intelligence: a game‑changer for customer engagement and decision‑making? Future Business Journal. https://doi.org/10.1186/s43093-025-00423-y

Hayles, N. K. (2017). Unthought: The power of the cognitive nonconscious. University of Chicago Press.

Ma, N., et al. (2025). Effect of anthropomorphism and perceived intelligence in intelligent avatars: the additive effect on perceived empathy. Frontiers in Computer Science.

Niu, W. (2025). Heterogeneous effects of Big Five personality traits on anthropomorphism contexts. Computers in Human Behavior.

Suleyman, M. (2025). Microsoft’s CEO of AI: Rights, model welfare, and AI citizenship as dangerous turns. PC Gamer.

Wikipedia. (2025). Computational theory of mind. https://en.wikipedia.org/wiki/Computational_theory_of_mind