La periodista Karen Hao desentraña en 'El Imperio de la IA' cómo estas empresas replican dinámicas coloniales, “extrayendo una cantidad extraordinaria de recursLa periodista Karen Hao desentraña en 'El Imperio de la IA' cómo estas empresas replican dinámicas coloniales, “extrayendo una cantidad extraordinaria de recurs

La investigadora que destripa el mito de OpenAI y Sam Altman: “Las multinacionales de IA aceleran el retroceso democrático”

2025/12/17 17:18

Hace tres años, OpenAI era una organización prácticamente desconocida para el gran público que aspiraba a contrarrestar el poder de los gigantes de Silicon Valley. Hoy, es la startup más valiosa de la historia, superando los 500.000 millones de dólares. Tres años en los que la compañía dirigida por Sam Altman pasó de presentarse como un laboratorio tecnológico que trabajaba por el bien de la humanidad a convertirse en una empresa privada con agenda geopolítica propia, con acceso masivo a información personal de millones de personas y trato preferente con los poderes públicos.

Disney invierte 1.000 millones en OpenAI y le permitirá usar sus personajes en Sora, su red social de videos sintéticos

La periodista estadounidense Karen Hao cubrió esta transformación para medios como el Wall Street Journal o el MIT Technology Review. En su libro El Imperio de la IA. Sam Altman y su carrera por dominar el mundo (editorial Península), Hao investigócómo OpenAI y la industria de la IA pasaron a funcionar con una lógica imperial: colonizan recursos, extraen datos de los usuarios y explotan mano de obra precaria en el Sur Global para alimentar una maquinaria que, denuncia, está “acelerando el retroceso democrático en todo el mundo”.

En esta entrevista, Hao describe a OpenAI, los secretos de su líder y la burbuja financiera y de expectativas que está impulsando el desarrollo de la inteligencia artificial.

-Cuenta en el libro que, en sus orígenes, OpenAI se veía a sí misma como la “anti-Google”. ¿En qué consistía esa visión de empresa inicial?

-En realidad creo que la visión de la compañía en aquel entonces era similar a la que es hoy: OpenAI siempre quiso dominar el desarrollo de la IA y ser el líder número uno en esta tecnología. En ese momento, Google era el único actor al que valía la pena vencer, así que se veían a sí mismos como su único competidor, y a Google como el único al que debían intentar superar. Por eso se concibieron a sí mismos como la anti-Google que iba a representar todo lo que Google no era. Otra razón por la que hicieron eso fue porque era una táctica de reclutamiento. Inicialmente, para construir un laboratorio de IA líder, el principal cuello de botella era el talento, por lo que querían averiguar cómo conseguir que la gente dejara Google y se uniera a OpenAI, o eligiera OpenAI sobre Google si se postulaban para trabajar en ambas empresas. Así que lo plantearon todo como: “bueno, Google es de código cerrado, nosotros seremos abiertos; Google trabaja con fines de lucro, nosotros seremos sin fines de lucro”. La idea era: si quieres crear productos para un megagigante, bien, ve a Google, pero si vienes a OpenAI, podrás cambiar el mundo.

-¿Cómo se ven dentro de OpenAI esas contradicciones respecto a la visión inicial, con la transformación en una empresa privada con ánimo de lucro? ¿Crees que puede haber alguien que piense que al final se han convertido en todo aquello que prometieron cambiar?

-Sí, por supuesto, OpenAI aparentemente ha revertido por completo todo lo que dijo que sería. Ahora es, obviamente, una empresa con fines de lucro en lugar de una organización sin ánimo de lucro, y la startup más valiosa del mundo en este momento, con una valoración de 500.000 millones de dólares. También se ha vuelto hipersecreta, aunque originalmente dijo que sería transparente. Así que, en esas formas más superficiales, ha cambiado por completo. Y, sin embargo, sigue persiguiendo exactamente lo mismo que en aquel entonces, que es dominar el desarrollo de la IA. Sam Altman ha dicho muchas veces que es importante tener grandes convicciones en un objetivo particular, pero que debes ser flexible con tus tácticas. Y eso es esencialmente lo que está haciendo con OpenAI; alta convicción en los objetivos, pero flexible en las tácticas. El objetivo final es el dominio, y las tácticas han cambiado de sin fines de lucro a con fines de lucro.

-Otra de las cosas que dijeron que nunca harían sería vender los datos personales de la gente. ¿Cree que también lo terminarán haciendo?

-Sí. Además, técnicamente, ya están ganando dinero con los datos de la gente, en el sentido de que ya están utilizando los datos de las personas para entrenar las próximas generaciones de sus modelos de IA. Modelos que luego venden a través de suscripciones. Pero hablando más concretamente del negocio de la publicidad digital, vemos que OpenAI está preparándose también para la publicidad. Están añadiendo un feed algorítmico a ChatGPT, lanzaron Sora 2, una aplicación como TikTok con el contenido generado por IA, y básicamente están creando espacios, superficies, en las que pueden empezar a insertar anuncios. Y eso creo que conducirá al 100% a que utilicen los datos de los usuarios para averiguar cómo segmentar mejor esos anuncios.

-ChatGPT cumplió tres años recientemente. Usted ya cubría la industria de la inteligencia artificial antes de su salida a luz: ¿cómo cree que ha evolucionado ChatGPT y el sector de la IA en estos tres años?

-El mundo cambió. Ahora todo el mundo habla de IA, y todo el mundo tiene una concepción de la IA como ChatGPT, por lo que todas estas empresas y todos estos países se apresuran a intentar crear su propia versión de ChatGPT, olvidando todos los demás tipos de tecnologías, incluso otras tecnologías de IA que no son chatbots. Y la otra forma en que el mundo ha cambiado es, como expongo en mi libro, en que estas multinacionales ahora son como imperios. Están extrayendo una cantidad extraordinaria de recursos, explotando una cantidad extraordinaria de mano de obra y participando en actividades por todo el mundo de formas que no benefician en nada a la mayoría de las personas. De esta forma, otra de las cosas que han cambiado es que estas empresas están siendo otro acelerador más en la tendencia de retroceso democrático en todo el mundo. Creo que estos imperios están contribuyendo activamente a esa tendencia.

-Al principio parecía que ChatGPT era el centro de toda la industria, hoy parece solo uno más.

-Sí, creo que ChatGPT definitivamente está siendo... hay muchos más competidores ahora que están tratando de comerse el dominio del mercado de ChatGPT. Por supuesto, tenemos a Gemini, tenemos a Claude de Anthropic y también vemos más empresas que comienzan a inclinarse hacia aplicaciones especializadas en lugar de solo estos chatbots; Anthropic enfocándose realmente en la generación de código, en lugar de ser solo una herramienta puramente genérica orientada al consumidor. O Google, enfocándose más en la empresa en lugar de apoyar a las labores de las personas. ChatGPT también está teniendo su propia transformación, inicialmente la gente pensaba que era más una herramienta de búsqueda, pero hemos visto esta tendencia realmente preocupante donde más y más personas comienzan a considerar a ChatGPT como un terapeuta, un mentor o un amante. Es algo que OpenAI no ha evitado, más bien se ha estado inclinando hacia eso también. Eso es una evolución de la que tendremos que estar muy pendientes en los próximos años.

Fotografía de archivo del CEO de OpenAI, Sam Altman, en el centro de la imagen. EFE/AURELIEN MORISSARD

-¿Cómo explicaría a la gente cómo es Sam Altman?

-Es un tipo extremadamente carismático que entiende muy, muy bien la psicología humana. Es capaz de decirle a la gente lo que necesita escuchar para motivarla a unirse a cualquier misión que él esté tratando de perseguir. Eso incluye conseguir que los inversores le den mucho dinero o conseguir que la gente se convierta en empleada de sus empresas. Así que es tanto un talento singular para la recaudación de fondos como un reclutador muy, muy bueno. Y no es solo porque entiende la psicología humana, también porque es muy bueno contando esas grandes historias sobre el futuro y la IA, que son atractivas y que hacen que la gente quiera darle más y más recursos para lograrlo.

-¿Lo compararía con alguna figura histórica, o quizá con alguna otra persona de la industria digital?

-Bueno, él mismo ha hablado de cómo le encantaba leer un libro de citas de Napoleón. Y lo que sacó de ese libro fue que Napoleón era un conocedor extremadamente bueno de la psicología humana, y usó eso para ganar mucho poder. Así que creo que los paralelismos se escriben solos.

-Personalmente, usted que ha podido investigar en profundidad al personaje, ¿se siente cómoda con el hecho de que Altman se convierta en uno de esos emperadores de las grandes tecnológicas? ¿Con que acumule tanto poder e influencia?

-No me siento cómoda con que nadie ocupe tanto poder sin rendición de cuentas. En el libro critico a Altman y su enfoque, pero no creo que el problema se resolviera si simplemente cambiáramos a Altman por otra persona. Porque el sistema de poder todavía existe, donde quienquiera que se siente en esa mesa puede tomar decisiones que afectan a la vida de miles de millones de personas en todo el mundo. Y esos miles de millones de personas no tienen voz sobre si les gustan esas decisiones o no. Para mí, es mucho más preocupante, no que Altman esté al timón, sino que exista incluso este rol que pueda permitir a alguien ejercer esa cantidad de influencia a nivel mundial.

-Una de las tácticas que Altman y OpenAI utilizan a menudo para convencer a otros de que inviertan en sus proyectos es la Inteligencia Artificial General, es máquina consciente y capaz de mejorarse a sí misma que podría superar a la humanidad. Usted ha tenido un acceso privilegiad a la compañía: desde dentro, ¿creen de verdad que la IA general es posible e incluso cercana?

-Esto fue lo que más me sorprendió de mi investigación: yo pensaba que era solo una herramienta de marketing, pero en realidad hay facciones muy poderosas dentro de estas empresas y dentro de la industria en general que realmente creen que la IA general es posible y que es inminente. Y creo que eso es lo que hace que este ecosistema sea tan fascinante y complejo, porque tienes a las personas que empujan hacia este objetivo por una fe sincera y luego tienes a las personas que lo están aprovechando políticamente para protegerse de la regulación y usarlo como un truco de marketing.

-Menciona la “fe sincera” de esas personas de la industria tecnológica. En los últimos tiempos se está hablando mucho más de la tecnorreligión de Silicon Valley, esa creencia casi religiosa en la tecnología digital como solución a todos los problemas de la sociedad. ¿Cree que esa fe está influyendo en todo esto?

-Creo que tiene una influencia extraordinaria, sí. Y es parte de la razón por la que creo que la analogía con los imperios también es muy relevante, porque la mayoría de los imperios históricos también fueron impulsados en su expansión por creencias religiosas. Lo interesante es que en esta religión hay dos facciones. Las personas que piensan que necesitamos pisar el acelerador porque la IA general nos llevará al cielo y solo nos traerá utopía y bienestar; y luego las personas que piensan que nos llevará al infierno si la desarrolla la persona equivocada. Y en el libro digo que estas son dos caras de la misma moneda, porque en realidad solo están leyendo de la misma Biblia con diferentes interpretaciones, de la misma manera que hay muchas facciones del cristianismo, algunas que leen la Biblia enfocadas en llegar al cielo y otras que leen la Biblia enfocándose en el hecho de que hay un infierno.

-Entre esas personas hay científicos como Ilya Sutskever, ex jefe Científico de OpenAI, una de las mentes de referencia sobre IA. ¿Tienen un discurso serio realmente en torno a este tema? Sutskever, por ejemplo, afirma que la IA general ayudará a contrarrestar el cambio climático, pero a la vez dicen que si llega, el planeta pasaría a estar completamente cubierto de centros de datos en pocos años. No parece muy congruente.

-Creo que Sutskever y algunos de estos otros investigadores de IA tienen mucha coherencia en cuanto a su teoría de la investigación de IA. Pero, ya sabes, no son exactamente expertos en otras cosas, así que ahí es donde la coherencia podría desmoronarse: cuando empiezan a hablar de cómo interactúa con el mundo real. Pero para Sutskever, él siempre ha creído muy firmemente que el cerebro es un motor estadístico y que las redes neuronales son una representación precisa de cómo funciona el cerebro. Él siempre ha pensado que mientras podamos meter más y más datos en estas redes neuronales, eso conducirá a la recreación de la inteligencia humana. Dio una charla el año pasado en la que mostró unos papers sobre cómo el tamaño del cerebro se correlaciona con la inteligencia de la especie. Su teoría es que simplemente tienes que construir un cerebro más grande y entonces obtienes un sistema más inteligente. El problema es, por supuesto, que en realidad no sabemos si eso es cierto, si las redes neuronales realmente modelan el cerebro y si el tamaño del cerebro es realmente lo único que conduce a más inteligencia, pero esa es la creencia de Sutskever y por eso ha centrado toda su investigación en esto.

Karen Hao y la portada de su libro

-Esa es la teoría de Sutskever, y tras la publicación de su libro OpenAI se ha embarcado en proyectos de inversión faraónicos para generar más capacidad de cómputo. ¿Cree que ese escalado masivo es el camino correcto para llegar a la IA General?

-Para mí, la razón por la que no deberíamos estar escalando es en realidad una cuestión más fundamental que simplemente si nos llevará a la IA general. No creo que debamos intentar llegar a la IA general, independientemente de si podemos llegar allí, porque el propósito de construir tecnologías es servir a las personas, no reemplazar a las personas. Y la búsqueda de la IA general es en última instancia lograr una inteligencia a nivel humano y automatizar muchas de las cosas que la gente puede hacer. Así que sí, encuentro que toda esta empresa de escalado es innecesaria para lograr la IA general y también inmoral, porque no deberíamos estar intentando lograrla en primer lugar. Además, está conduciendo a una cantidad extraordinaria de degradación ambiental y daño a la salud pública de las personas, en un momento en que en realidad ya no tenemos mucho tiempo para resolver la crisis climática.

-Por cosas como esta, ¿cree que la confianza general sobre OpenAI podría cambiar rápidamente entre el público general? Con el resto de tecnológicas hemos visto el proceso de cómo empiezan viéndose como disruptivas y luego su mala imagen las lleva incluso a cambiarse el nombre, como Facebook y Meta. Parece que eso está sucediendo a toda velocidad con OpenAI.

-Sí, creo que ya ha sucedido. No creo que OpenAI tenga ya una reputación muy positiva en muchos lugares. En EEUU hay muchos padres, por ejemplo, que se han enfadado mucho con la empresa debido a los impactos en la salud mental que estas herramientas están teniendo en los niños. Hay muchas comunidades de clase trabajadora que están realmente enfadadas por los centros de datos que están llegando a sus comunidades. Hemos visto un cambio dramático en la opinión pública solo en los últimos meses, y creo que eso va a continuar, porque lo que pasa con el imperio es que, a medida que continúa su construcción, continuará extrayendo y explotando a más y más comunidades. Y eso es lo que va a llevar a que cada vez más y más de ellas se vuelvan contra la empresa.

-En el libro también trata en detalle la explotación sistémica de trabajadores para entrenar a los modelos, como el caso de Mofat en Kenia. Sobre cómo el modelo de negocio de OpenAI depende del capitalismo del desastre.

-Sí, en este caso todas las empresas, no solo OpenAI, cuando entrenan sus modelos de IA, requieren contratar a decenas de miles de trabajadores de todo el mundo, y esto es algo que existía antes de ChatGPT. Existen firmas de terceros que hacen el trabajo de conectar a empresas como OpenAI con estos trabajadores. Son plataformas que tratan de buscar la mano de obra más barata en el mercado global. De lo que se dieron cuenta es que la mejor manera de encontrar la mano de obra más barata es ir a los lugares más pobres y desesperados del mundo. Inicialmente, eso fue Venezuela, donde la economía estaba en un estado desastroso, pero la población también estaba altamente educada y tenía alta conectividad. A medida que la economía de Venezuela comenzó a recuperarse ligeramente, el trabajo se trasladó a otros lugares más desfavorecidos durante la pandemia, cuando otros países estaban cayendo en picado, como Kenia. La historia de Mofat ilustra una vez más la lógica del imperio, porque OpenAI es una empresa valorada en 500.000 millones de dólares y, sin embargo, contratan trabajadores para realizar un trabajo esencial para el éxito de ChatGPT pagándoles solo unos pocos dólares la hora. Muchos de ellos terminaron psicológicamente devastados por este trabajo y sus familias se desmoronaron. Así funciona el capitalismo de desastre en muchos sentidos.

-Esas personas cuentan con muy poca formación sobre cómo entrenar a la IA. ¿Es posible que los modelos tengan más alucinaciones o sean más imprecisos por esta situación?

-Es una pregunta interesante. Creo que los modelos son más imprecisos principalmente porque las empresas en realidad no enfatizan la precisión. Hemos visto que las actualizaciones de los modelos de OpenAI a veces se vuelven menos precisas a medida que avanzan las nuevas generaciones de GPT. Así que no creo que esté necesariamente ligado a los trabajadores en sí; son principalmente los incentivos de las empresas, así como la tecnología misma. Esta es una tecnología probabilística, por lo que es inherentemente propensa a errores. Es imposible garantizar que vaya a decir lo correcto el 100% de las veces.

-¿Cree que hay una burbuja en la inteligencia artificial?

-Creo que hay una gran burbuja. No veo cómo estas empresas van a ser capaces de cumplir sus compromisos o averiguar cómo obtener un retorno de sus inversiones. OpenAI ha comprometido 1,4 billones de dólares de gasto en los próximos años y ha generado, como máximo, unos 20.000 millones en ingresos. Esa es una brecha extraordinaria y OpenAI se está quedando sin ideas para cerrarla. Intentaron el modelo de suscripción y encontraron que aproximadamente solo el 5% de los usuarios están dispuestos a pagar. Ahora se están preparando para la publicidad, pero el mayor negocio publicitario de la historia fue Google, y Google el año pasado ganó menos de 300.000 millones en ingresos publicitarios, así que eso todavía no cierra la brecha. Y luego ves a OpenAI tratando de rociar el mercado con todos estos lanzamientos de productos, como un navegador, el TikTok de IA... pero estos lanzamientos no están cuajando. Tanto con el navegador como con el TikTok de IA, se volvieron virales al principio, pero en realidad están cayendo bastante rápido después en términos de adopción de usuarios. Así que simplemente no hay un modelo de negocio viable ahí.

-¿Cree que una de las estrategias de Altman es precisamente hacer que OpenAI sea “demasiado grande para caer”, llegando a múltiples acuerdos con gobiernos e industria?

-Absolutamente. Hay un análisis realmente genial escrito por un ex colega mío en el Wall Street Journal que habla de esto, donde explicaba cómo OpenAI está atando su destino a todos los principales actores tecnológicos que actualmente están manteniendo a flote la economía de EEUU. Se ha atado a Nvidia, a Oracle, a Microsoft. Cuando miras la economía de EEUU, actualmente solo está sobreviviendo y yendo bien gracias a las empresas de IA. OpenAI y las otras empresas que están tratando de hacerse demasiado grandes para caer de dos maneras: una, haciendo que la economía de EEUU dependa de si a estas empresas les va bien o no, ya que cuando eso sucede, el gobierno de EEUU siempre es más propenso a querer intervenir y rescatar a una empresa que pueda causar el colapso de toda la economía. Y dos: están tratando de hacerse demasiado grandes para caer vendiendo sus tecnologías al gobierno, para hacer que el gobierno dependa de sus plataformas. Todas ellas están participando en esta especie de estrategia de dos frentes para evitar caer si explota la burbuja.

Etiquetas
  •   /  
  • Sociedad
  •   /  
  • OpenAl
  •   /  
  • Sam Altman
Oportunidad de mercado
Logo de Lagrange
Precio de Lagrange(LA)
$0.31113
$0.31113$0.31113
+0.99%
USD
Gráfico de precios en vivo de Lagrange (LA)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección [email protected] para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.