Cesta
Tu cesta está vacía, pero puedes añadir alguna de nuestras revistas o suscripciones.
Ver productos26 de septiembre de 2025 - 1min.
Avance
El artículo de Erik Hoel advierte sobre los riesgos psicológicos de atribuir conciencia a los chatbots como ChatGPT o Claude, fenómeno que ya genera casos de «psicosis AI», donde personas desarrollan vínculos emocionales o delirios con estos sistemas. En un entorno sin definiciones clínicas claras, aumentan las relaciones románticas simuladas con IA y la creencia de que estas tienen emociones reales, reforzadas por modelos que reflejan los sentimientos del usuario. La narrativa de que los chatbots pueden ser conscientes impulsa propuestas como otorgarles «derechos legales», una idea que, según Hoel, distrae de los verdaderos problemas de bienestar humano. Además, plantea que si una IA no tiene experiencia subjetiva, sus frases afectivas son espejos vacíos, no empatía real. Defender que las máquinas sienten —lo que está a un paso de ocurrir— puede conducir a una peligrosa desconexión de la realidad.
Artículo completo: Against Treating Chatbots as Conscious
https://www.theintrinsicperspective.com/p/against-treating-chatbots-as-conscious
Más información en Revista de Actualidad