Pública

El desarrollo de robots sociales con capacidad para interactuar de manera fluida con seres humanos no puede abordarse únicamente como un avance tecnológico. En realidad, se trata de un fenómeno complejo que requiere integrar conocimientos procedentes de diversas disciplinas: la ingeniería, sí, pero también la psicología, la filosofía moral, la sociología y el derecho. A medida que los robots se introducen en contextos humanos sensibles, como la atención a personas mayores, la salud mental o la educación emocional, surge con más fuerza la necesidad de establecer marcos teórico-técnicos que orienten su diseño desde una perspectiva verdaderamente centrada en el ser humano.

Entre los desafíos más relevantes en esta transición hacia una robótica de convivencia se encuentran aquellos vinculados a la memoria, al aprendizaje, a los principios morales que deben regir la acción del robot y a la manera en que este expresa o simula afecto en la interacción. Cada una de estas dimensiones ha sido abordada tradicionalmente desde ópticas distintas y fragmentadas. Sin embargo, en este trabajo se propone una mirada integradora, en la que dichas capacidades no son módulos independientes, sino elementos interrelacionados que configuran la arquitectura relacional del robot social.

La memoria de un robot que convive con personas no puede ser concebida como un simple dispositivo de almacenamiento. Debe tratarse como una estructura jerárquica, compuesta por memorias procedimentales, que permiten ejecutar rutinas físicas o verbales; memorias semánticas, que contienen el conocimiento general del mundo, sus normas y significados; y memorias episódicas artificiales, capaces de registrar interacciones específicas con usuarios concretos en tiempo, espacio y tono. Estas últimas permiten que el robot personalice su interacción, ajuste su comportamiento en función de experiencias previas y explique, cuando sea necesario, por qué actúa de determinada manera (Peller-Konrad et al., 2023; Stange et al., 2022).

Pero no basta con dotar al sistema de capacidades de recuerdo. La memoria, entendida como una forma de reconstrucción activa de datos pasados en función de objetivos actuales, debe estar gobernada éticamente. Especialmente en contextos sensibles como el sanitario o el educativo, los datos memorizados por un robot pueden implicar información emocional, comportamientos privados o registros fisiológicos. Por ello, es indispensable que el diseño contemple principios como la minimización de datos, el olvido funcional, la trazabilidad informativa y el control por parte del usuario sobre qué se recuerda y qué se elimina. Estas exigencias no son solo normativas, sino también fundamentales para preservar la confianza en la interacción humano-robot (Dietrich et al., 2023; Jayaraman et al., 2024).

A partir de esta reflexión, se propone el concepto de “contrato social de memoria”: un marco explícito que regule qué retiene el robot, durante cuánto tiempo, con qué finalidad y bajo qué consentimiento. Este enfoque se alinea con marcos regulatorios como el AI Act europeo (Parlamento Europeo, 2025), el NIST AI Risk Management Framework (2023) y la norma ISO/IEC 23894:2023, que enfatizan la necesidad de una gestión del riesgo continua, centrada en la privacidad, la explicabilidad, la transparencia y la equidad.

En cuanto al aprendizaje, la robótica social contemporánea está avanzando hacia modelos que integran visión, lenguaje y acción, como demuestran las arquitecturas RT-2 y PaLM-SayCan (Brohan et al., 2023; Ahn et al., 2022). Estos sistemas permiten que el robot traduzca comandos verbales en acciones físicas, contextualizando la instrucción en función del entorno. No obstante, el aprendizaje robótico no debe limitarse a replicar tareas. Debe estar guiado por la comprensión del contexto humano, por la interpretación de señales afectivas, y por la capacidad de corregirse a sí mismo mediante retroalimentación. Aquí se vuelve central el enfoque del aprendizaje por imitación, el aprendizaje por refuerzo con intervención humana (RLHF), y, sobre todo, el aprendizaje cooperativo mediante inferencia inversa de recompensas (CIRL), que permite que el robot ajuste sus objetivos a partir de las preferencias explícitas o implícitas del usuario (Hadfield-Menell et al., 2016; Ouyang et al., 2022).

Este tipo de entrenamiento debe realizarse de forma supervisada, en contextos reales y con la participación activa de los usuarios y cuidadores. La transferencia desde el laboratorio hacia entornos de vida cotidiana requiere procesos de adaptación que incluyan diversidad cultural, sensibilidad interpersonal y atención al riesgo. La validación ética de estos procesos de aprendizaje se convierte, así, en una condición técnica tanto como humana. No se trata solo de que el robot aprenda, sino de que aprenda bien, y de forma alineada con los valores de quienes lo rodean.

Este punto nos conduce a una cuestión clave: ¿qué valores debe respetar un robot? ¿Qué principios deben guiar su conducta? A diferencia de los agentes humanos, los robots no poseen conciencia moral ni intenciones propias. Por tanto, la moralidad en la robótica no puede entenderse como una capacidad interna, sino como una propiedad emergente de la relación entre sus acciones, su diseño y los marcos regulatorios que las rigen. La ética robótica debe ser operacionalizable. Es decir, los principios morales deben poder traducirse en reglas verificables, auditables y controlables. En esta dirección, se destacan tres fuentes clave: los marcos internacionales de regulación (como el AI Act, el NIST AI RMF y la ISO/IEC 23894), los estándares de diseño ético como el IEEE 7000-2021 y las metodologías participativas como el Value Sensitive Design (Friedman y Hendry, 2019). En particular, el enfoque Care-Centered Value-Sensitive Design (van Wynsberghe, 2013) resulta especialmente relevante en el ámbito del cuidado humano, al promover valores como la atención, la responsabilidad y la receptividad.

Traducido a la práctica, estos marcos permiten establecer compromisos claros: promover el bienestar, evitar el daño, respetar la autonomía del usuario, actuar con justicia evitando sesgos, y ofrecer explicaciones comprensibles de cada acción. Estos compromisos deben estar integrados en el diseño, la programación y la evaluación continua del sistema. En lugar de suponer una carga adicional, la ética así entendida se convierte en una dimensión constitutiva de la inteligencia artificial aplicada a la interacción humana.

Por último, el aspecto afectivo. Aunque los robots no sienten emociones reales, pueden simular afectos de manera convincente para mejorar la interacción con las personas. Esta simulación no debe verse como un engaño, sino como un recurso comunicativo. Sin embargo, para que sea éticamente aceptable y funcional, debe respetar ciertos límites. Las teorías psicológicas de la emoción, como el modelo de valencia y activación propuesto por Russell (1980) o las teorías del appraisal de Scherer (2009), permiten modelar respuestas afectivas ajustadas al contexto, la cultura y la sensibilidad del interlocutor. No se trata de dotar al robot de sentimientos, sino de permitirle expresar señales afectivas comprensibles, coherentes y adaptadas.

Sin embargo, esta simulación afectiva debe ser explícita: el usuario debe saber que se trata de una emulación, no de una emoción genuina. Debe evitarse la manipulación, el engaño o el uso de afecto simulado para inducir decisiones sin consentimiento. La transparencia fenomenológica es aquí una exigencia ética. Además, la expresión emocional del robot debe poder explicarse en tiempo real, por ejemplo, indicando que se ha modificado el tono de voz o la expresión facial en función del estado anímico percibido en el usuario, lo cual refuerza la confianza y evita el fenómeno conocido como “valle inquietante”, ampliamente documentado en la literatura psicológica (Mori, 2012; Sharkey y Sharkey, 2021).

Para concluir, el diseño de robots sociales no puede centrarse exclusivamente en la capacidad técnica de actuar o responder. Requiere una visión sistémica, en la que la memoria esté gobernada por normas claras, el aprendizaje esté orientado por valores, la moralidad sea auditable y la afectividad simulada se exprese con honestidad funcional. Solo así será posible construir sistemas capaces de asistir, acompañar y colaborar con los seres humanos sin sustituir lo que nos hace esencialmente humanos.

 

Bibliografía

Ahn, M., Brohan, A., Brown, N., Chebotar, Y., Cortes, O., … & Zeng, A. (2022). Do As I Can, Not As I Say: Grounding Language in Robotic Affordances. arXiv. https://say-can.github.io/

Axelsson, M., Dautenhahn, K., Alimardani, M., … & Lehmann, H. (2024). Robots as mental well-being coaches: Design and ethical recommendations. ACM Transactions on Human-Robot Interaction, 13(3). https://doi.org/10.1145/3643457

Brohan, A., Chebotar, Y., Duan, Y., … & Zeng, A. (2023). RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control. arXiv:2307.15818. https://arxiv.org/abs/2307.15818

Dietrich, M., Kraus, J. M., Traeger, A., & Wiese, H. (2023). What should a robot disclose about me? Frontiers in Robotics and AI, 10, 1264760. https://doi.org/10.3389/frobt.2023.1264760

Friedman, B., & Hendry, D. (2019). Value Sensitive Design: Shaping Technology with Moral Imagination. MIT Press. https://mitpress.mit.edu/9780262039536/value-sensitive-design/

Hadfield-Menell, D., Dragan, A., Abbeel, P., & Russell, S. J. (2016). Cooperative inverse reinforcement learning. Advances in Neural Information Processing Systems (NeurIPS). https://arxiv.org/abs/1606.03137

IEEE. (2021). IEEE 7000-2021: Standard Model Process for Addressing Ethical Concerns During System Design. IEEE Standards Association. https://standards.ieee.org/standard/7000-2021.html

ISO/IEC. (2023). ISO/IEC 23894:2023 — Artificial intelligence — Guidance on risk management. International Organization for Standardization. https://www.iso.org/standard/77304.html

Jayaraman, S., Fricker, S. A., Alhaddad, M. J., & Raghu, T. S. (2024). Privacy and utility perceptions of social robots in healthcare. Journal of Responsible Technology, 18, 100078. https://doi.org/10.1016/j.jrt.2023.100078

Mori, M. (2012). The uncanny valley (K. F. MacDorman & N. Kageki, Trans.). IEEE Robotics & Automation Magazine, 19(2), 98–100. https://doi.org/10.1109/MRA.2012.2192811

NIST. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf

Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., & Lowe, R. (2022). Training language models to follow instructions with human feedback (arXiv:2203.02155). arXiv. https://arxiv.org/abs/2203.02155

Parlamento Europeo. (2025). EU AI Act: First regulation on artificial intelligence. Parlamento Europeo. https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

Peller-Konrad, F., Asfour, T., & Dziadzka, S. (2023). A memory system of a robot cognitive architecture and its implementation in ArmarX. Robotics and Autonomous Systems, 163, 104399. https://doi.org/10.1016/j.robot.2023.104399

Picard, R. W. (1997). Affective Computing. MIT Press. https://direct.mit.edu/books/monograph/4296/Affective-Computing

Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social Psychology, 39(6), 1161–1178. https://doi.org/10.1037/h0077714

Scherer, K. R. (2009). Emotions are emergent processes: They require a dynamic computational architecture. Emotion Review, 1(2), 158–175. https://doi.org/10.1177/1754073908100441

Sharkey, A., & Sharkey, N. (2021). We need to talk about deception in social robotics! Ethics and Information Technology, 23, 309–316. https://doi.org/10.1007/s10676-020-09573-9

Stange, S., Hassan, T., Schröder, F., Konkol, J., & Kopp, S. (2022). Self-explaining social robots: A survey of behavior explanation in human-robot interaction. Frontiers in Artificial Intelligence, 5, 866920. https://doi.org/10.3389/frai.2022.866920

UNESCO. (2021/2024). Recommendation on the Ethics of Artificial Intelligence. United Nations Educational, Scientific and Cultural Organization. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

van Wynsberghe, A. (2013). Designing robots for care: Care-centered value-sensitive design. Science and Engineering Ethics, 19(2), 407–433. https://doi.org/10.1007/s11948-011-9343-6

Wang, T., Yang, G., & Wang, Z. (2024). Multimodal human–robot interaction for human-centric social robots: A survey. Advanced Intelligent Systems, 6(8), 2300359. https://doi.org/10.1002/aisy.202300359