«El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO

  • Twitter
  • Facebook
  • Google+
  • Linkedin
  • Tumblr

"El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO

En OpenAI ven un futuro en el que la semana laborales debería tener cuatro días. No solo eso: cada ciudadano debería recibir una parte del crecimiento económico generado por la IA. Son algunas de las propuestas que la compañía ha publicado ayer con el objetivo de prepararnos para la «era de la inteligencia». 

Y justo el día que publicaban esa propuesta plagada de buenas y tranquilizadoras intenciones, llegaba un mazazo para el CEO de OpenAI, Sam Altman. Una investigación publicada en The New Yorker volvía a poner en tela de juicio su forma de actuar, muy criticada por parte de expertos e ingenieros que trabajaron con él. La conclusión de todos ellos: mejor no te fíes de Sam Altman.

La llegada de la era de la inteligencia. La que denominan como «era de la inteligencia» tendrá sin duda impacto negativo en algunos ámbitos, pero en OpenAI proponen con su documento hacer cambios que mitiguen esos problemas. Entre las medidas más llamativas destaca la creación de un «fondo de riqueza pública» que repartirá dividendos de la IA directamente entre los ciudadanos, independientemente de su estado laboral. 

Que trabajen las máquinas (y nos paguen por ello). Sugieren también impuestos a la mano de obra automatizada para financiar la seguridad social, y también proyectos piloto de semanas laborales de cuatro días sin reducción salarial. La propuesta es  llamativa y busca, cómo no, tranquilizar a los ciudadanos ante amenazas como la de la pérdida de empleo que puede provocar la adopción masiva de la IA. El problema es que esa propuesta llega en un momento delicado para una OpenAI en plena crisis reputacional.

¿Cortina de humo? Esa propuesta llena de optimismo contrasta con el reportaje publicado en The New Yorker y en el que los autores entrevistaron a más de 100 personas «con conocimiento de primera mano de cómo Altman se comporta en los negocios». Y entre ellos, rivales como Ilya Sutskever o sobre todo Dario Amodei que fundaron sus propias startups. Ambos criticaban duramente a Altman. Sutskever  acumuló documentos internos y mensajes en los que se mostraban engaños y manipulaciones. Amodei afirmaba que el obstáculo para la seguridad de la IA es el propio Altman, que deja ese ámbito en segundo plano frente a la ambición de poder personal y crecimiento desmedido de la compañía. Para sus antiguos socios Altman no es un visionario, sino un actor con una pose calculada.

Dice una cosa, hace otra distinta. El escándalo del despido y posterior retorno de Altman se debió precisamente a esa actitud en la que el consejo lo acusaba de que «no había sido consistentemente franco en sus comunicaciones». Es lo mismo que hemos leído en otras ocasiones: Altman tiene una personalidad dual. En él se mezclan el deseo patológico de gustar y ser aceptado, con la falta de preocupación total por las consecuencias de sus metiras a largo plazo. Le dice a sus interlocutores lo que quieren oír, para luego hacer lo que realmente quería desde el principio. Es algo que por ejemplo narra una y otra vez Karen Hao en su libro ‘Empire of AI’, en el que, todo sea dicho, erró al calcular el consumo de agua de centros de datos mencionados en sus estudios. En el reportaje mencionan como el conocido programador Aaron Swartz lo conoció antes de morir en 2013 y comentó de él ya entonces que «es un sociópata».

La imagen pública lo es todo. La publicación del documento de OpenAI se produce en un momento especialmente crítico para la empresa, que está envuelta en una crisis reputacional y estratégica. Anthropic ha logrado convertirse en la niña bonita de la industria de la IA —sin ser ni mucho menos perfecta— y OpenAI se ha dado cuenta de que estaba experimentando con demasiadas aplicaciones de la IA que no eran rentables y ahora quiere reenfocarse a aquello que lo da. Las buenas intenciones mostradas en el documento tratan de poner de su lado a la opinión pública justo cuando la empresa planea su salida a bolsa.

Aprendiendo del pasado. Los críticos de Altman revelan que es un experto en diseñar mecanismos de control que se convierten en humo. Apoya regulaciones de la IA (al menos, las que le favorecen) e impulsa públicamente comités de ética y de alineamiento y seguridad de la IA que en realidad luego tumba de forma interna, al menos según quienes trabajan con él. Pasó cuando prometió destinar el 20% de la capacidad de cómputo al equipo de superalineamiento, para luego en realidad ceder solo entre el 1 y el 2% de esa capacidad. Jan Leike, que fue nombrado colíder de ese equipo junto a Sutskever, dimitió en mayo de 2024 indicando que «la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos», explicaba en un hilo en X. Acabó fichando por Anthropic.

Críticas interesadas. Aunque la trayectoria de Altman al frente de OpenAI –con lo que pasó con el Pentágono como ejemplo reciente— refuerza los comentarios de quienes le critican, hay que recordar que la competencia en esta industria es actualmente feroz. Muchos de los que participan en el reportaje son rivales directos y por tanto sus críticas, veladas o no, son en parte interesadas porque perjudican a su competidor. 

En Xataka | Hay un nueva generación de modelos IA a las puertas y Anthropic tiene que venderlos: «El más grande e inteligente»


La noticia

«El problema es Sam Altman”: la industria de la IA se enamoró de OpenAI, pero no se fía ni un pelo de su CEO

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Fuente: www.xataka.com