SSI, la última empresa cofundada por el antiguo científico jefe de OpenAI, Ilya Sutskever, ha conseguido una asombrosa financiación de 1.000 millones de dólares para realizar avances pioneros en la seguridad de la IA. Esta ambiciosa startup tratará de desarrollar sistemas de inteligencia artificial que superen a los humanos tanto en seguridad como en rendimiento.
Con sedes en Palo Alto (California) y Tel Aviv (Israel), SSI se puso en marcha con un equipo fundador de 10 empleados. La empresa planea utilizar los fondos recaudados para adquirir la máxima potencia informática y contratar a talentos de alto nivel. La empresa prevé ser pequeña en número pero intensamente informada, centrada en encontrar la mejor investigación posible en seguridad y capacidades de IA.
Aunque SSI se ha negado a revelar públicamente su nueva valoración, las fuentes sitúan la cifra en torno a los 5.000 millones de dólares. Otras conocidas empresas de capital riesgo que participaron en la ronda de financiación son, entre otras, Andreessen Horowitz, Sequoia Capital, DST Global y SV Angel. La financiación también incluyó a NFDG, una sociedad de inversión dirigida por Nat Friedman junto con el consejero delegado de SSI, Daniel Gross.
Daniel Gross subrayó: «Para nosotros es importante estar rodeados de inversores que comprendan, respeten y apoyen nuestra misión, que es avanzar directamente hacia la superinteligencia segura y, en particular, dedicar un par de años a la I+D de nuestro producto antes de sacarlo al mercado». Esta declaración subraya el compromiso de SSI con una fase de desarrollo centrada, tras la cual el producto saldrá al mercado.
Su fundación se produce en un momento en que la seguridad de la IA se ha convertido en un debate clave en la comunidad tecnológica, con muchos impulsados por el temor a que la tecnología pueda destinarse a usos nefastos. El debate sobre la seguridad de la IA es cada vez más acalorado, y medidas reguladoras como la propuesta de ley de California abren una brecha en el sector. Empresas como OpenAI y Google se han opuesto a estas normativas, mientras que otras, como Anthropic y xAI de Elon Musk, las han apoyado.
Por eso, la salida de Sutskever de OpenAI a principios de este año supuso el mayor ajuste de rumbo de su carrera. Él, junto con Daniel Gross y el antiguo investigador de OpenAI Daniel Levy, se embarcaron en este nuevo viaje para situar la seguridad a la vanguardia del desarrollo de la IA. Esto se produjo después de que algunas disputas internas en OpenAI llevaran a disolver el equipo Superalignment, del que Sutskever y Jan Leike eran colíderes; Leike se ha unido a Anthropic.
Sutskever miró hacia atrás en su nueva dirección y expresó una disculpa por haber estado involucrado en acciones pasadas de la junta que provocaron cambios temporales de liderazgo en OpenAI. «Lamento profundamente mi participación en las acciones de la junta», dijo, reafirmando su compromiso con la misión de su nueva empresa.
En los próximos días, SSI espera remodelar el mundo de la inteligencia artificial asegurándose de que sus avances en este campo sean punteros y sigan las mejores normas de seguridad. Esto puede incluir acuerdos con los principales proveedores de nubes y empresas de chips para la infraestructura informática que respalde el trabajo. El enfoque de Sutskever difiere del que llevó a cabo en OpenAI, ya que no sólo se hace hincapié en la ampliación de recursos, sino también en la innovación en el ámbito de la seguridad de la IA.
Dado que SSI es un desarrollo reciente, el mundo de la tecnología está prestando mucha atención y se pregunta qué tipo de impacto tendrá este recién nacido a la hora de hacerse un hueco en la configuración y el uso de la inteligencia artificial en el futuro.