Cómo dos innovadores de la generación Z rechazaron millones de Elon Musk para crear una IA inspirada en el cerebro que supera a OpenAI y a los modelos antrópicos

Dos innovadores de la Generación Z, recién salidos de laboratorios universitarios, rechazaron un paquete multimillonario de Elon Musk para perseguir su propia visión de la IA inspirada en el cerebro. En lugar de unirse a xAI, optaron por construir una nueva arquitectura que se centra en la profundidad del razonamiento en lugar de la escala de fuerza bruta. Su sistema desafía ahora a los modelos más avanzados de OpenAI y Anthropic en las pruebas de razonamiento abstracto, lo que plantea una pregunta difícil para el sector: ¿es la próxima generación de IA más eficaz que la actual? inteligencia artificial sobre el tamaño o sobre cómo piensa el "cerebro" dentro del modelo.

Su viaje conecta la investigación en neurociencia de la IA, los modelos pequeños pero eficientes y el emprendimiento tecnológico en Estados Unidos y China. Empezaron con OpenChat, un gran modelo de lenguaje compacto entrenado en diálogos de alta calidad, que atrajo la atención mundial después de que investigadores de Berkeley y Stanford se basaran en su trabajo. La verdadera revolución llegó más tarde, con un modelo de razonamiento jerárquico que aborda Sudokus, la resolución de laberintos y pruebas de estilo AGI de una forma que los transformadores tradicionales no pueden hacer. Para fundadores, ingenieros y responsables políticos que siguen de cerca la innovación en IA, esta historia muestra cómo un rechazo de Elon Musk se convirtió en el detonante de un camino diferente hacia una IA que supere los modelos OpenAI y Antrópico.

Cómo los innovadores de la Generación Z convirtieron el rechazo de Elon Musk en innovación en IA

Los dos innovadores de la Generación Z, William Chen y Guan Wang, se conocieron en el instituto en Michigan y se unieron por una obsesión compartida por la inteligencia. Uno soñaba con un algoritmo que resolviera cualquier problema, el otro quería optimizar sistemas complejos. Años después, su trabajo en OpenChat llegó a la bandeja de entrada de Elon Musk, y xAI les hizo una oferta multimillonaria.

Decidieron decir no. Ese rechazo de Elon Musk no provenía de una falta de respeto por la xAI, sino de la convicción de que los grandes transformadores se enfrentan a límites estructurales. Vieron la innovación en IA no como una negociación salarial, sino como una oportunidad de probar una ruta diferente hacia la inteligencia general artificial.

  • Céntrese en los metagoales en lugar de en los títulos o las marcas.
  • Cambie dinero a corto plazo por control a largo plazo sobre la dirección de la investigación.
  • Trate las ofertas de fundadores famosos como señales, no como destinos finales.
  • Utiliza el interés de los gigantes como validación, y luego redobla las ideas originales.

Al replantear una oferta de Musk como opcional en lugar de inevitable, mantuvieron la propiedad de su hoja de ruta de IA inspirada en el cerebro y se posicionaron como actores independientes en la inteligencia artificial de próxima generación.

De estudiantes de bachillerato en Michigan a creadores de inteligencia artificial en neurociencia

El origen de esta historia de IA inspirada en el cerebro está en Bloomfield Hills, Michigan. Chen fundó un club de drones, presionó a los administradores de la escuela para que permitieran cuadricópteros en el campus y pasó noches enteras en laboratorios de robótica. Wang siguió un camino paralelo, obsesionado con algoritmos capaces de generalizar tareas mucho antes de que "AGI" se convirtiera en un término de uso común.

Ambos acabaron en el Laboratorio de Cognición Cerebral e Inteligencia Inspirada en el Cerebro de la Universidad de Tsinghua, en Pekín. El curso fue duro, sobre todo para un estudiante criado en San Diego y Shenzhen que se adaptaba al mejor programa de ingeniería de China. Sin embargo, los profesores se interesaron por el tema en cuanto se dieron cuenta de que estos estudiantes querían poner en tela de juicio los supuestos en los que se basaba la investigación a gran escala. aprendizaje automático.

  • Secundaria: drones, robótica y largas charlas sobre "metagoals".
  • Elección de universidad: ignorar el camino habitual hacia Carnegie Mellon o Georgia Tech.
  • Laboratorio cerebral de Tsinghua: exposición directa a la ciencia cognitiva y el modelado neuronal.
  • Mentores: profesores que apoyaron abiertamente la ambición AGI.

Esta mezcla de la cultura juguetona estadounidense, el rigor de la ingeniería china y la investigación neurocientífica de la IA creó el contexto para un estilo diferente de avance de la IA basado en la curiosidad, no en la conformidad.

LEER  Cómo la IA está revolucionando la forma en que vivimos las decisiones del Tribunal Supremo

OpenChat, modelos pequeños y la primera señal de que la IA supera a OpenAI

Antes de que la IA inspirada en el cerebro se convirtiera en su misión principal, el dúo creó OpenChat como experimento. Entrenaron a un pequeño LLM en un conjunto seleccionado de conversaciones de alta calidad, en lugar de hacerlo a partir de raspados masivos de Internet. A continuación, introdujeron el aprendizaje por refuerzo en el bucle de entrenamiento principal en un momento en el que casi nadie utilizaba la RL a escala para modelos lingüísticos fuera de algunos equipos chinos como DeepSeek.

Una vez abierto, OpenChat se extendió rápidamente por los círculos de investigación. Laboratorios de Berkeley y Stanford clonaron el repositorio, superpusieron su propio trabajo y empezaron a citar el modelo como ejemplo de cómo los sistemas pequeños entrenados con buenos datos superan a los modelos hinchados con corpus ruidosos.

  • LLM pequeño, datos de alta señal, y fuerte curación de los diálogos.
  • Aprendizaje por refuerzo para el refinamiento conversacional, no sólo predicción supervisada de texto.
  • Código abierto estrategia para atraer a los investigadores en lugar de la liberación corporativa cerrada.
  • Prueba de que el número de parámetros por sí solo no define la calidad del razonamiento.

OpenChat aún no representaba que la IA superara a OpenAI, pero dio a los innovadores de la Generación Z una señal clara de que la comunidad se preocupaba por estrategias de formación más inteligentes y arquitecturas alternativas.

Aprendizaje por refuerzo y DeepSeek Parallel

Cuando incorporaron RL a su proyecto LLM, el único grupo conocido que seguía un camino similar era DeepSeek, de China. Más tarde, DeepSeek desestabilizaría a Silicon Valley con el lanzamiento de modelos eficientes que rivalizaban con los sistemas occidentales en varias pruebas de referencia y consumían menos recursos informáticos.

OpenChat utilizó la RL para que el modelo aprendiera de los comentarios, recompensara las respuestas coherentes y útiles y penalizara los comportamientos inútiles. De este modo, la formación se convertía en un bucle de comportamiento controlado en lugar de una mera absorción de patrones.

  • Acción: el modelo elige respuestas en un diálogo.
  • Feedback: los evaluadores o las métricas automatizadas puntúan los resultados.
  • Recompensa: los buenos resultados refuerzan determinadas actualizaciones de los parámetros.
  • Iteración: el bucle produce un comportamiento más alineado y coherente a lo largo del tiempo.

Este enfoque de aprendizaje por refuerzo se ajusta a los principios de la IA de la neurociencia, donde el aprendizaje fluye a partir de la interacción y las consecuencias, no sólo de archivos de texto estáticos.

La arquitectura de IA inspirada en el cerebro que desafía los modelos antrópicos

El verdadero cambio llegó con su Modelo de Razonamiento Jerárquico, un diseño basado en cómo el cerebro equilibra las reacciones rápidas con el pensamiento lento y deliberado. En lugar de apilar transformadores más grandes, construyeron un sistema recurrente que separa el reconocimiento rápido de patrones de la planificación en varios pasos.

En las primeras pruebas, un prototipo con 27 millones de parámetros superó a los modelos de OpenAI, Anthropic y DeepSeek en pruebas de razonamiento intensivo. Esto incluía tareas ARC-AGI, rutas de laberintos y rompecabezas Sudoku-Extreme, todo ello sin necesidad de guiar la cadena de pensamiento ni realizar búsquedas de fuerza bruta.

  • Estructura en dos partes con capas reflexivas rápidas y bucles de razonamiento más lentos.
  • Pasos internos de "pensamiento" antes de las respuestas finales, no simple predicción de fichas.
  • Mayor rendimiento en tareas de razonamiento abstracto con muchos menos parámetros.
  • Mayor resistencia a los cortocircuitos espurios en comparación con los transformadores estándar.

Estos resultados señalan un camino hacia la inteligencia artificial de nueva generación centrada en diseños de IA compactos inspirados en el cerebro que compitan directamente con los grandes modelos antrópicos en tareas de razonamiento.

De la predicción de la siguiente palabra al pensamiento estructurado

Los transformadores tradicionales modelan el texto como una secuencia de probabilidades. Adivinan el siguiente token basándose en patrones contextuales observados en enormes conjuntos de datos. Esto funciona bien con un lenguaje fluido, pero no cuando se trata de estructuras lógicas profundas o de horizontes de planificación largos.

LEER  Lo más destacado del jueves: Errores de IA, indignación de los fans y el hipopótamo bebé más pequeño del mundo

El razonamiento jerárquico intercala una etapa entre la percepción y el resultado, en la que el modelo construye un estado interno, recorre pasos hipotéticos y sólo entonces produce una respuesta. Chen describe este cambio como el paso de "adivinar" a "pensar" dentro del sistema de IA.

  • Transformadores: concordancia de patrones en corpus masivos.
  • Modelo jerárquico: estados intermedios explícitos para submetas y planificación.
  • Resultado: mejor rendimiento en puzzles, algoritmos y matemáticas de varios pasos.
  • Efecto secundario: menor índice de alucinaciones en tareas factuales y estructuradas.

Este cambio ofrece una lente para los fundadores e ingenieros que desean una innovación en IA que apoye el razonamiento complejo en lugar de sólo el texto pulido.

Casos de uso concretos en los que la IA inspirada en el cerebro supera a los LLM clásicos

El equipo de Sapient Intelligence informa de que sus modelos igualan o superan a los sistemas más avanzados en varios ámbitos que exigen un razonamiento estructurado. En lugar de centrarse en charlas abiertas, miden el valor en campos en los que importan la precisión predictiva y la planificación bajo incertidumbre.

Algunas de las primeras áreas de aplicación ofrecen una prueba de realidad para el bombo publicitario en torno a la IA que supera a la OpenAI y los modelos antrópicos. Destacan casos en los que arquitecturas pequeñas y disciplinadas superan a los chatbots generales.

  • Predicción meteorológica con dependencias temporales complejas.
  • Modelos cuantitativos de negociación que se adaptan a los cambios de régimen.
  • Seguimiento médico con cambios sutiles de señal y datos de series temporales.
  • Control de procesos industriales en los que la estabilidad y la seguridad son importantes.

En cada uno de estos ejemplos, el motor de razonamiento jerárquico utiliza su estructura interna para razonar sobre secuencias, en lugar de extrapolar ciegamente patrones pasados.

Por qué los sistemas más pequeños e inteligentes son importantes para las empresas

Para los directores de tecnología y los jefes de producto, la principal cuestión práctica no es si una startup puede batir a OpenAI en una prueba de referencia. La cuestión es si un sistema de IA más compacto e inspirado en el cerebro ofrece mejores costes, fiabilidad e interpretabilidad con las limitaciones del mundo real.

Los modelos más pequeños que piensan de forma más eficiente ofrecen varias ventajas comerciales, especialmente a medida que se endurecen los precios de la informática y las normas de privacidad.

  • Menor coste de inferencia por solicitud gracias a un menor número de parámetros.
  • Mayor facilidad de implantación en las instalaciones o en el perímetro para los sectores regulados.
  • Reducción de las tasas de alucinación en los flujos de trabajo de misión crítica.
  • Huellas de razonamiento interno más claras para los equipos de auditoría y cumplimiento.

Esta ventaja práctica hace que la investigación en neurociencia de la IA deje de ser una curiosidad académica y se convierta en una herramienta concreta para las empresas que evalúan estrategias de inteligencia artificial de nueva generación.

Lecciones de emprendimiento tecnológico del viaje de Sapient Intelligence

Más allá de la arquitectura, la historia de Sapient Intelligence subraya cómo los innovadores de la Generación Z enfocan el emprendimiento tecnológico de forma diferente. Combinan la investigación abierta, la educación global y las decisiones de riesgo audaces, en lugar de seguir el manual estándar de Silicon Valley.

Los fundadores que siguen este camino ven un modelo para relacionarse con gigantes como Musk sin perder el control de la dirección a largo plazo. También ven cómo la IA neurocientífica puede anclar una narrativa de producto distintiva en un abarrotado mercado de innovación en IA.

  • Posicionar la investigación públicamente con proyectos de código abierto como OpenChat.
  • Utilice las grandes ofertas como validación, no como único objetivo.
  • Ancle la historia de la empresa en una tesis científica clara.
  • Reclutar en torno a "metagoales" para mantener al equipo alineado con las ambiciones de AGI.

Estas decisiones sitúan a Sapient no como una extensión de una empresa más grande, sino como un contendiente en la carrera hacia la inteligencia artificial de nueva generación.

Contratación por metas y alineación a largo plazo

Una práctica distintiva de la empresa es el énfasis en los metaobjetivos durante la contratación. A cada candidato se le pregunta por el propósito último de su carrera, no sólo por sus habilidades y títulos. Este enfoque filtra a las personas que quieren pensar en AGI, seguridad e impacto a largo plazo.

LEER  La crisis del software basado en IA: Separar la exageración de la realidad

Esto es importante para cualquier nueva empresa que intente superar los modelos OpenAI o Anthropic, porque los incentivos a corto plazo a menudo empujan hacia demostraciones llamativas en lugar de inteligencia fiable.

  • Aclarar las misiones personales durante las entrevistas.
  • Alinear los incentivos con la profundidad de la investigación y no sólo con la velocidad del producto.
  • Fomentar un debate sano sobre los riesgos y la gobernanza de la AGI.
  • Cree una cultura en la que decir no, incluso a inversores famosos, sea aceptable.

Este tipo de estrategia de talento proporciona al equipo resistencia cuando la presión externa para escalar rápidamente entra en conflicto con la necesidad de un desarrollo responsable de la IA en neurociencia.

Por qué la inteligencia artificial de nueva generación podría surgir de nuevas arquitecturas

Los actuales LLM de vanguardia muestran claros límites en la planificación, la memoria a largo plazo y el razonamiento multipaso. El escalado de los parámetros mejora el rendimiento durante un tiempo, pero las ganancias se ralentizan y los costes aumentan bruscamente. Incluso OpenAI y Anthropic reconocen que más tokens y clusters más grandes no equivalen a inteligencia general.

Chen y Wang consideran que se trata de una limitación estructural y no de un inconveniente a corto plazo. Para ellos, la próxima generación de inteligencia artificial vendrá de la mano de nuevas arquitecturas que integren la planificación, la memoria y el razonamiento como componentes de primera clase, no como añadidos opcionales.

  • Transformers: geniales en reconocimiento de patrones y fluidez lingüística.
  • Razonamiento jerárquico: optimizado para la descomposición de problemas complejos.
  • Aprendizaje continuo: modelos que se actualizan con seguridad sin un reentrenamiento completo.
  • IA inspirada en el cerebro: diseños influidos por la investigación sobre la cognición, no sólo por la estadística.

Esta apuesta arquitectónica da forma a su hoja de ruta y explica por qué un rechazo de Elon Musk parecía un cambio que merecía la pena hacer para lograr un impacto a largo plazo.

El aprendizaje continuo como próxima frontera

Los fundadores consideran que el aprendizaje continuo es una capacidad crucial para los sistemas AGI. Los modelos deben asimilar nuevas experiencias sin necesidad de realizar procesos de reentrenamiento completos que restablezcan el comportamiento y cuesten millones en computación. También necesitan salvaguardas para evitar olvidos catastróficos y derivas inseguras.

Los enfoques de IA inspirados en el cerebro permiten actualizaciones incrementales que se asemejan al aprendizaje humano: exposición, retroalimentación e integración gradual en las estructuras de conocimiento existentes.

  • Actualizaciones en línea a partir de flujos de datos frescos con restricciones estrictas.
  • Filtros de seguridad que señalan comportamientos anómalos antes de que se propaguen.
  • Sistemas de memoria que conservan las habilidades básicas al tiempo que añaden otras nuevas.
  • Circuitos de evaluación que controlan los patrones de razonamiento a lo largo del tiempo.

Dominar el aprendizaje continuo hace que la innovación de la IA deje de ser un "lanzamiento de modelos" periódico para convertirse en un servicio de inteligencia estable y en evolución.

Nuestra opinión

La historia de dos innovadores de la Generación Z que rechazaron la multimillonaria oferta de Elon Musk para desarrollar su propia IA inspirada en el cerebro muestra cómo la convicción en una tesis técnica puede pesar más que el prestigio a corto plazo. Su trabajo con OpenChat, los modelos de razonamiento jerárquico y los principios neurocientíficos de la IA apuntan a un futuro en el que la inteligencia artificial de última generación se basa en una arquitectura más inteligente que en la escala bruta.

Para ingenieros, ejecutivos y responsables políticos, la lección clave es sencilla. Que la IA supere a OpenAI y a los modelos antrópicos no dependerá sólo de quién posea el mayor clúster, sino de quién diseñe sistemas que piensen con estructura, planifiquen bajo incertidumbre y aprendan continuamente sin perder el control. Siguiendo esta trayectoria, la verdadera competición se centrará en qué equipos combinan el rigor científico con el emprendimiento tecnológico responsable para dar forma a una IAG que sirva a los objetivos humanos en lugar de perseguir únicamente puntos de referencia.

  • Cuestionar el culto a los parámetros y centrarse en la profundidad del razonamiento.
  • Siga la pista a la investigación sobre IA inspirada en el cerebro procedente de pequeños laboratorios y empresas emergentes.
  • Invertir en arquitecturas que favorezcan el aprendizaje continuo y la seguridad.
  • Anime a los fundadores a mantener la independencia cuando lleguen ofertas estratégicas.