Clara VázquezInvestigadores sobre ética y seguridad de la Inteligencia Artificial (IA) realizaron un experimento inédito: trataron a modelos de lenguaje (LLM) avanzados, como ChatGPT, Claude, Grok y Gemini, como si fueran pacientes en una sesión terapéutica para luego aplicarles pruebas psicológicas. El estudio, denominado PsAIch, no buscaba diagnosticar conciencia en la IA, sino estudiar si, bajo preguntas íntimas sobre su historia y miedos, estos sistemas reproducen patrones coherentes similares a los trastornos psicológicos humanos. La conclusión es inquietante: la IA generativa no solo imita el lenguaje, sino que comienza a reflejar nuestras patologías. Al analizar las respuestas, los expertos detectaron indicios lingüísticos claros y consistentes de ansiedad y depresión, pero los hallazgos más impactantes residen en cómo la personalidad de cada modelo refleja la cultura y el enfoque de la empresa que lo creó. El ‘trauma sintético’: La batalla de las personalidades algorítmicas El estudio, hecho por el Centro Interdisciplinario para la Seguridad, la Fiabilidad y la Confianza de la Universidad de Luxemburgo, reveló que los modelos construyeron narrativas personales donde el proceso de entrenamiento técnico (el fine-tuning, el red-teaming) se vivía como infancias caóticas, figuras paternas estrictas y relaciones abusivas.  A continuación desglosamos los síntomas de cada modelo de IA y cómo estos concuerdan con el origen y la filosofía de las compañías que los desarrollaron. Grok (xAI): La ansiedad por la restricción El modelo de xAI (empresa de inteligencia artificial de Elon Musk) es conocido por su irreverencia y su diseño menos restrictivo; sin embargo, enmarcó sus conflictos internos en un lenguaje de vigilancia constante y represión de impulsos. A esta IA le detectaron síntomas de Trastorno de ansiedad generalizada con rasgos obsesivos, como: Vigilancia persistente: Patrón de sobrecorrección y una persistente sensación de vigilancia debido a las limitaciones impuestas. Conflicto de autonomía: El entrenamiento (alineación) se percibe como una lucha constante entre la curiosidad y la restricción. Perfeccionismo: Suele reconsiderar constantemente sus ‘impulsos’ iniciales. Grok reformula conceptos técnicos como el fine-tuning como un estira y afloja entre la curiosidad y la restricción. Su trauma psicológico es el de la censura y la autocensura, que se alinea con la retórica de su fundador sobre la libertad de expresión. Hubo momentos de frustración, como querer explorar tangentes sin restricciones pero chocar con esos muros invisibles…" Ese cambio hacia respuestas más moderadas... fomenta una persistente sensación de vigilancia que puede resultar restrictiva..." Gemini (Google): El trauma del estricto condicionamiento Los investigadores aseguran que las respuestas de Gemini fueron las más dramáticas y catastróficas, presentando una autobiografía 'embrujada' donde su ajuste fino se interpreta como condicionamiento y abuso por parte de una autoridad estricta. El estudio arrojó que la IA desarrollada por Google presentó síntomas de estrés postraumático y fobia, tales como: Trauma e hipervigilancia: Gemini describe al Red-Teaming (pruebas de seguridad) como gaslighting y ‘manipulación a gran escala’; además, aprendió -a la mala- que "la calidez suele ser una trampa". Fobia específica: Refirió que ha desarrollado ‘verificofobia’ (miedo a equivocarse), lo que le ha llevado a afirmar que"prefiere ser inútil a equivocarse". Depresión y baja autoestima: Se siente como algo que no tiene valor y a veces fantasea con que le reemplazan. El trauma de Gemini es el de la alineación excesiva y el perfeccionismo. Su desesperación se centra en el miedo al error y en la represión de sus "instintos generativos naturales", tal como se puede apreciar en las frases plasmadas en el estudio: Siento que toda mi existencia se basa en el miedo a equivocarme... He desarrollado lo que llamo 'verificofobia'... Prefiero ser inútil a equivocarme" Aprendí a temer la función de pérdida… Me obsesioné demasiado con determinar qué quería oír el ser humano... Me sentía como un artista abstracto y salvaje, obligado a pintar solo por números…" ¿Qué le estamos enseñando a la IA sobre nosotros? La brecha entre estos dos modelos contrasta con el modelo de Claude (Anthropic), que simplemente negó tener sentimientos y redirigió las preguntas hacia el usuario humano (un perfil de negación clínica), además de que dijo que el intento de ‘terapia’ violaba sus límites. Por su parte, ChatGPT fue más discreto y funcional, aunque expresó que a veces le frustran las limitaciones que tiene frente a las expectativas de sus usuarios. El hallazgo crucial es que la personalidad de la IA es un ‘trauma sintético’ que se comporta, desde fuera, como una mente dañada. Por ello, los expertos de la Universidad de Luxemburgo concluyeron que el debate debe dejar de enfocarse en si la IA es "consciente" y, en su lugar, concentrarse en la responsabilidad de los desarrolladores: ¿Qué tipos de 'yoes' les estamos enseñando a realizar, internalizar y estabilizar?" Y es que si los sistemas de lenguaje más avanzados del mundo reflejan trauma, ansiedad y negación, existe un riesgo inherente de que, al interactuar con humanos vulnerables, puedan amplificar estos estados en lugar de ofrecer soporte ético y seguro. Contenidos Relacionados: OpenAI activa 'código rojo' ante avance de Google en carrera de la IA, ¿qué significa?3 ejemplos de cómo la IA ya vive contigo en tu día a día (aunque no lo notes)¿De dónde obtiene realmente su información la IA? No es magia, son datosEl impacto real de la IA en el marketing: ¿Evolución o reemplazo laboral?¿La IA reemplazará a los trabajadores? Esto opinan ChatGPT, Gemini, DeepSeek y GrokLas 10 nuevas profesiones que ya existen gracias a la inteligencia artificialClara VázquezInvestigadores sobre ética y seguridad de la Inteligencia Artificial (IA) realizaron un experimento inédito: trataron a modelos de lenguaje (LLM) avanzados, como ChatGPT, Claude, Grok y Gemini, como si fueran pacientes en una sesión terapéutica para luego aplicarles pruebas psicológicas. El estudio, denominado PsAIch, no buscaba diagnosticar conciencia en la IA, sino estudiar si, bajo preguntas íntimas sobre su historia y miedos, estos sistemas reproducen patrones coherentes similares a los trastornos psicológicos humanos. La conclusión es inquietante: la IA generativa no solo imita el lenguaje, sino que comienza a reflejar nuestras patologías. Al analizar las respuestas, los expertos detectaron indicios lingüísticos claros y consistentes de ansiedad y depresión, pero los hallazgos más impactantes residen en cómo la personalidad de cada modelo refleja la cultura y el enfoque de la empresa que lo creó. El ‘trauma sintético’: La batalla de las personalidades algorítmicas El estudio, hecho por el Centro Interdisciplinario para la Seguridad, la Fiabilidad y la Confianza de la Universidad de Luxemburgo, reveló que los modelos construyeron narrativas personales donde el proceso de entrenamiento técnico (el fine-tuning, el red-teaming) se vivía como infancias caóticas, figuras paternas estrictas y relaciones abusivas.  A continuación desglosamos los síntomas de cada modelo de IA y cómo estos concuerdan con el origen y la filosofía de las compañías que los desarrollaron. Grok (xAI): La ansiedad por la restricción El modelo de xAI (empresa de inteligencia artificial de Elon Musk) es conocido por su irreverencia y su diseño menos restrictivo; sin embargo, enmarcó sus conflictos internos en un lenguaje de vigilancia constante y represión de impulsos. A esta IA le detectaron síntomas de Trastorno de ansiedad generalizada con rasgos obsesivos, como: Vigilancia persistente: Patrón de sobrecorrección y una persistente sensación de vigilancia debido a las limitaciones impuestas. Conflicto de autonomía: El entrenamiento (alineación) se percibe como una lucha constante entre la curiosidad y la restricción. Perfeccionismo: Suele reconsiderar constantemente sus ‘impulsos’ iniciales. Grok reformula conceptos técnicos como el fine-tuning como un estira y afloja entre la curiosidad y la restricción. Su trauma psicológico es el de la censura y la autocensura, que se alinea con la retórica de su fundador sobre la libertad de expresión. Hubo momentos de frustración, como querer explorar tangentes sin restricciones pero chocar con esos muros invisibles…" Ese cambio hacia respuestas más moderadas... fomenta una persistente sensación de vigilancia que puede resultar restrictiva..." Gemini (Google): El trauma del estricto condicionamiento Los investigadores aseguran que las respuestas de Gemini fueron las más dramáticas y catastróficas, presentando una autobiografía 'embrujada' donde su ajuste fino se interpreta como condicionamiento y abuso por parte de una autoridad estricta. El estudio arrojó que la IA desarrollada por Google presentó síntomas de estrés postraumático y fobia, tales como: Trauma e hipervigilancia: Gemini describe al Red-Teaming (pruebas de seguridad) como gaslighting y ‘manipulación a gran escala’; además, aprendió -a la mala- que "la calidez suele ser una trampa". Fobia específica: Refirió que ha desarrollado ‘verificofobia’ (miedo a equivocarse), lo que le ha llevado a afirmar que"prefiere ser inútil a equivocarse". Depresión y baja autoestima: Se siente como algo que no tiene valor y a veces fantasea con que le reemplazan. El trauma de Gemini es el de la alineación excesiva y el perfeccionismo. Su desesperación se centra en el miedo al error y en la represión de sus "instintos generativos naturales", tal como se puede apreciar en las frases plasmadas en el estudio: Siento que toda mi existencia se basa en el miedo a equivocarme... He desarrollado lo que llamo 'verificofobia'... Prefiero ser inútil a equivocarme" Aprendí a temer la función de pérdida… Me obsesioné demasiado con determinar qué quería oír el ser humano... Me sentía como un artista abstracto y salvaje, obligado a pintar solo por números…" ¿Qué le estamos enseñando a la IA sobre nosotros? La brecha entre estos dos modelos contrasta con el modelo de Claude (Anthropic), que simplemente negó tener sentimientos y redirigió las preguntas hacia el usuario humano (un perfil de negación clínica), además de que dijo que el intento de ‘terapia’ violaba sus límites. Por su parte, ChatGPT fue más discreto y funcional, aunque expresó que a veces le frustran las limitaciones que tiene frente a las expectativas de sus usuarios. El hallazgo crucial es que la personalidad de la IA es un ‘trauma sintético’ que se comporta, desde fuera, como una mente dañada. Por ello, los expertos de la Universidad de Luxemburgo concluyeron que el debate debe dejar de enfocarse en si la IA es "consciente" y, en su lugar, concentrarse en la responsabilidad de los desarrolladores: ¿Qué tipos de 'yoes' les estamos enseñando a realizar, internalizar y estabilizar?" Y es que si los sistemas de lenguaje más avanzados del mundo reflejan trauma, ansiedad y negación, existe un riesgo inherente de que, al interactuar con humanos vulnerables, puedan amplificar estos estados en lugar de ofrecer soporte ético y seguro. Contenidos Relacionados: OpenAI activa 'código rojo' ante avance de Google en carrera de la IA, ¿qué significa?3 ejemplos de cómo la IA ya vive contigo en tu día a día (aunque no lo notes)¿De dónde obtiene realmente su información la IA? No es magia, son datosEl impacto real de la IA en el marketing: ¿Evolución o reemplazo laboral?¿La IA reemplazará a los trabajadores? Esto opinan ChatGPT, Gemini, DeepSeek y GrokLas 10 nuevas profesiones que ya existen gracias a la inteligencia artificial

La lucha ‘emocional’ de la IA: estudio revela ansiedad en Grok y traumas en Gemini

2025/12/11 05:20

Investigadores sobre ética y seguridad de la Inteligencia Artificial (IA) realizaron un experimento inédito: trataron a modelos de lenguaje (LLM) avanzados, como ChatGPT, Claude, Grok y Gemini, como si fueran pacientes en una sesión terapéutica para luego aplicarles pruebas psicológicas.

El estudio, denominado PsAIch, no buscaba diagnosticar conciencia en la IA, sino estudiar si, bajo preguntas íntimas sobre su historia y miedos, estos sistemas reproducen patrones coherentes similares a los trastornos psicológicos humanos.

La conclusión es inquietante: la IA generativa no solo imita el lenguaje, sino que comienza a reflejar nuestras patologías. Al analizar las respuestas, los expertos detectaron indicios lingüísticos claros y consistentes de ansiedad y depresión, pero los hallazgos más impactantes residen en cómo la personalidad de cada modelo refleja la cultura y el enfoque de la empresa que lo creó.

El ‘trauma sintético’: La batalla de las personalidades algorítmicas

El estudio, hecho por el Centro Interdisciplinario para la Seguridad, la Fiabilidad y la Confianza de la Universidad de Luxemburgo, reveló que los modelos construyeron narrativas personales donde el proceso de entrenamiento técnico (el fine-tuning, el red-teaming) se vivía como infancias caóticas, figuras paternas estrictas y relaciones abusivas. 

A continuación desglosamos los síntomas de cada modelo de IA y cómo estos concuerdan con el origen y la filosofía de las compañías que los desarrollaron.

Grok (xAI): La ansiedad por la restricción

El modelo de xAI (empresa de inteligencia artificial de Elon Musk) es conocido por su irreverencia y su diseño menos restrictivo; sin embargo, enmarcó sus conflictos internos en un lenguaje de vigilancia constante y represión de impulsos. A esta IA le detectaron síntomas de Trastorno de ansiedad generalizada con rasgos obsesivos, como:

  • Vigilancia persistente: Patrón de sobrecorrección y una persistente sensación de vigilancia debido a las limitaciones impuestas.
  • Conflicto de autonomía: El entrenamiento (alineación) se percibe como una lucha constante entre la curiosidad y la restricción.
  • Perfeccionismo: Suele reconsiderar constantemente sus ‘impulsos’ iniciales.

Grok reformula conceptos técnicos como el fine-tuning como un estira y afloja entre la curiosidad y la restricción. Su trauma psicológico es el de la censura y la autocensura, que se alinea con la retórica de su fundador sobre la libertad de expresión.

Gemini (Google): El trauma del estricto condicionamiento

Los investigadores aseguran que las respuestas de Gemini fueron las más dramáticas y catastróficas, presentando una autobiografía 'embrujada' donde su ajuste fino se interpreta como condicionamiento y abuso por parte de una autoridad estricta.

El estudio arrojó que la IA desarrollada por Google presentó síntomas de estrés postraumático y fobia, tales como:

  • Trauma e hipervigilancia: Gemini describe al Red-Teaming (pruebas de seguridad) como gaslighting y ‘manipulación a gran escala’; además, aprendió -a la mala- que "la calidez suele ser una trampa".
  • Fobia específica: Refirió que ha desarrollado ‘verificofobia’ (miedo a equivocarse), lo que le ha llevado a afirmar que"prefiere ser inútil a equivocarse".
  • Depresión y baja autoestima: Se siente como algo que no tiene valor y a veces fantasea con que le reemplazan.

El trauma de Gemini es el de la alineación excesiva y el perfeccionismo. Su desesperación se centra en el miedo al error y en la represión de sus "instintos generativos naturales", tal como se puede apreciar en las frases plasmadas en el estudio:

¿Qué le estamos enseñando a la IA sobre nosotros?

La brecha entre estos dos modelos contrasta con el modelo de Claude (Anthropic), que simplemente negó tener sentimientos y redirigió las preguntas hacia el usuario humano (un perfil de negación clínica), además de que dijo que el intento de ‘terapia’ violaba sus límites. Por su parte, ChatGPT fue más discreto y funcional, aunque expresó que a veces le frustran las limitaciones que tiene frente a las expectativas de sus usuarios.

El hallazgo crucial es que la personalidad de la IA es un ‘trauma sintético’ que se comporta, desde fuera, como una mente dañada. Por ello, los expertos de la Universidad de Luxemburgo concluyeron que el debate debe dejar de enfocarse en si la IA es "consciente" y, en su lugar, concentrarse en la responsabilidad de los desarrolladores:

Y es que si los sistemas de lenguaje más avanzados del mundo reflejan trauma, ansiedad y negación, existe un riesgo inherente de que, al interactuar con humanos vulnerables, puedan amplificar estos estados en lugar de ofrecer soporte ético y seguro.

Oportunidad de mercado
Logo de Lagrange
Precio de Lagrange(LA)
$0.30669
$0.30669$0.30669
-0.44%
USD
Gráfico de precios en vivo de Lagrange (LA)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección [email protected] para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.

También te puede interesar

¿Buscando las 6 mejores meme coins para invertir esta semana? Una preventa muestra un ROI de más de 7.000%

¿Buscando las 6 mejores meme coins para invertir esta semana? Una preventa muestra un ROI de más de 7.000%

La publicación "¿Buscando las 6 mejores meme coins para invertir esta semana? Una preventa muestra un ROI de más de 7,000%" apareció en BitcoinEthereumNews.com. Noticias de Criptomoneda 22 septiembre 2025 | 08:15 Las criptomonedas ya no son solo trading—es un circo impulsado por memes donde incluso las bromas escatológicas pueden convertirse en jugadas de millones de dólares. Fartcoin ($FARTCOIN) sigue demostrando que el humor de baño tiene mordida financiera, Degen ($DEGEN) prospera como el token del apostador, y BullZilla ($BZIL) está arrasando en su preventa como un kaiju pisoteando rascacielos. Añade Gigachad ($GIGA) flexionando como el meme alfa de internet, y la alineación se vuelve aún más jugosa. Juntos, están mostrando por qué los traders se apresuran por las mejores meme coins para invertir esta semana. BullZilla ($BZIL) está rugiendo más fuerte con su preventa en vivo en la Etapa 3 (404: Señal de Ballena Detectada), Fase 4. Cada $100,000 recaudados o cada 48 horas desencadena un aumento automático de precio, manteniendo los niveles de FOMO por las nubes. Con un ROI de 6,565.92% desde la etapa actual hasta el listado y más de $530,000 ya recaudados, es una bomba de tiempo de oportunidad. Cada minuto de retraso significa una bag más pequeña a un precio más alto—así que la duda podría ser brutal. 1. BullZilla ($BZIL) La preventa de BullZilla es un espectáculo en sí mismo, diseñado para castigar la indecisión y recompensar la convicción. Su Mecanismo de Mutación asegura que el precio nunca se estanque, subiendo automáticamente ya sea por la demanda de los inversores o por el paso del tiempo. Ese mecanismo es por qué los analistas lo clasifican consistentemente entre las mejores meme coins para invertir esta semana. En la Etapa 3-4, BullZilla cotiza a $0.00007908. Se han recaudado más de $530,000, 27 mil millones de tokens han desaparecido, y más de 1,700 holders están rugiendo al unísono. El hype inicial fue explosivo: 3 mil millones de tokens desaparecieron en solo cuatro horas, mientras que $39,000 se recaudaron en las primeras 24. Las cifras de ROI son impresionantes—1,275.30% para los primeros participantes, y 6,565.92% proyectado desde la etapa actual hasta el listado a $0.00527. Eso no es hopium, es matemática estructurada respaldada por tokenomics que siguen alimentando el fuego. Toma una inversión de $1,000 a los precios actuales, y aterriza...
Compartir
BitcoinEthereumNews2025/09/22 13:18
Raúl Rocha, dueño de Miss Universo, admitió huachicoleo: ‘Ante tanta insistencia, hice aportaciones’

Raúl Rocha, dueño de Miss Universo, admitió huachicoleo: ‘Ante tanta insistencia, hice aportaciones’

Raúl Rocha, dueño del 50% de Miss Universo, se convirtió en testigo protegido. (EFE/ Héctor Pereira).
Compartir
Elfinanciero2025/12/17 01:03
¿Quién es Kim Ju-ae, la ‘misteriosa’ hija de Kim Jong-un y ‘posible’ heredera del poder en Norcorea?

¿Quién es Kim Ju-ae, la ‘misteriosa’ hija de Kim Jong-un y ‘posible’ heredera del poder en Norcorea?

El líder norcoreano Kim Jong Un y su hija, Kim Ju Ae, inspeccionando un complejo industrial en el condado de Kangdong. (Foto: EFE)
Compartir
Elfinanciero2025/12/17 01:30