- Leike era co-líder del equipo de superalineación de OpenAI, que se disolvió después de su salida hacia Anthropic.ai.
- Anthropic.ai cuenta con el respaldo de Amazon y otros gigantes tecnológicos.
- Leike se centrará en la investigación de la alineación automatizada. De qué se trata.
La novedad sorprende al mundo (cada vez más amplio y competitivo) de la inteligencia artificial: Jan Leike, uno de los principales investigadores en seguridad de OpenAI, anunció su incorporación a la startup rival Anthropic.ai.
La noticia surge apenas unos días después de su salida de la compañía de Sam Altman, creadora de ChatGPT.
Esta transferencia de talento pone en evidencia la cada vez mayor competencia entre las empresas de inteligencia artificial en la carrera por desarrollar tecnologías más avanzadas y seguras.
Leike, quien anunció su renuncia a OpenAI el pasado 15 de mayo, había codirigido el grupo de superalineación de la compañía, un equipo dedicado a abordar los riesgos a largo plazo asociados con la inteligencia artificial. Es decir, un tema clave.
Este grupo fue disuelto pocos días después de la salida de Leike, según lo informó Ilya Sutskever, cofundador de OpenAI, a través de una publicación en X (Twitter).
Jan Leike has joined Anthropic.
Jan is the former OpenAI Superalignment Co-lead who left with Ilya and others. pic.twitter.com/6l7I10sJFZ
— Smoke-away (@SmokeAwayyy) May 28, 2024
Anthropic.ai y la superalineación
“Estoy feliz de unirme a Anthropic.ai para continuar la misión de superalineación”, declaró Leike en X.
“Mi nuevo equipo se enfocará en la supervisión escalable y la investigación de alineación automatizada”, agregó.
Anthropic cuenta con un respaldo financiero más que importante, en particular de Amazon, que ha comprometido hasta 4,000 millones de dólares para adquirir una participación minoritaria en la startup, según CNBC.
Esta inversión refleja la confianza en el potencial de Anthropic.ia para avanzar en el campo de la inteligencia artificial.
En una publicación posterior a su salida de OpenAI, Leike expresó que dejar su anterior trabajo fue una de las decisiones más difíciles de su vida. “Necesitamos urgentemente descubrir cómo dirigir y controlar sistemas de IA mucho más inteligentes que nosotros”, escribió, subrayando la importancia de la seguridad en el desarrollo de estas tecnologías.
El auge de la inteligencia artificial: OpenAi vs Anthropic.ai
La seguridad de la inteligencia artificial ha ganado rápidamente relevancia en el sector tecnológico desde que OpenAI lanzó ChatGPT a finales de 2022, lo que desencadenó una ola de inversiones y el desarrollo de productos de IA generativa.
Sin embargo, algunos expertos en la industria han manifestado su preocupación de que las empresas estén avanzando demasiado rápido, lanzando productos poderosos sin considerar los posibles daños sociales que podrían ocasionar.
Para abordar estas preocupaciones, OpenAI (financiada por Microsoft) anunció la creación de un nuevo comité de seguridad dirigido por altos ejecutivos, incluido su CEO Altman.
Este comité tendrá la tarea de recomendar decisiones de seguridad para los proyectos y operaciones de OpenAI a su junta directiva, buscando asegurar que los avances tecnológicos se implementen de manera responsable.
Por otro lado, Anthropic.ai, fundada en 2021 por los hermanos Dario y Daniela Amodei junto con otros ex ejecutivos de OpenAI, ha emergido como un competidor de peso.
En marzo, lanzaron Claude 3, un rival directo de ChatGPT.
Además de Amazon, la compañía ha asegurado financiamiento de gigantes tecnológicos como Google y Salesforce, fortaleciendo su posición en el competitivo mercado de la inteligencia artificial.
Qué es la superalienación
La superalineación es un concepto nuevo en el campo de la inteligencia artificial que se refiere a la necesidad de garantizar que los sistemas de IA altamente avanzados no solo funcionen de acuerdo con las instrucciones y objetivos específicos establecidos por los humanos, sino que también operen de manera segura y ética en un contexto más amplio.
Esto implica diseñar y entrenar sistemas de IA que comprendan y respeten los valores y normas humanas incluso cuando tomen decisiones autónomas en situaciones complejas y no anticipadas.
Ahora lee:
Volver a la versión old de Character.ai es posible (los usuarios festejan en redes)
Elon Musk recibe U$S 6,000 millones para impulsar xAI, rival de OpenAI y ChatGPT
Qué es Character.ai, la plataforma por la que se pelean Zuckerberg y Musk