Después de que desaparezca el bombo de la IA: Cómo puede la humanidad recuperar el control - Reflexiones de Rafael Behr

El bombo de la IA impulsó promesas de productividad instantánea, creatividad infinita y empresas totalmente automatizadas. Tres años después del lanzamiento récord de ChatGPT, el dinero y el ruido en torno al futuro de la IA son más fuertes que nunca, pero la vida cotidiana de la mayoría de la gente sigue siendo confusa y frágil. Las gigantescas valoraciones, las apuestas billonarias en infraestructuras y la rivalidad geopolítica convierten una tecnología abstracta en un sistema que moldea el trabajo, la política y la cultura antes de que la sociedad tenga la oportunidad de decidir cuánto control quiere mantener. El análisis de Rafael Behr sobre este momento trata la IA no como un software mágico, sino como un espejo de la codicia, el miedo y la esperanza humanas.

Detrás de los eslóganes sobre el progreso se esconde una pregunta difícil: ¿qué le ocurrirá a la Humanidad cuando se desinfle el bombo de la IA y lleguen las facturas? Un billón en compromisos a largo plazo en materia de IA tardaría decenas de miles de años en gastarse a un dólar por segundo. Los gigantes tecnológicos estadounidenses, desde la participación de Microsoft en OpenAI hasta Google, Amazon y Meta, dependen del impacto de la IA para justificar tales riesgos y mantener vivos los mercados bursátiles. China toma un camino diferente, inundando la vida cotidiana con herramientas "suficientemente buenas" vinculadas a la vigilancia y la censura. Entre los libertarios de Silicon Valley y los planificadores autoritarios, el espacio para el control democrático se reduce rápidamente. El verdadero reto no consiste en predecir la superinteligencia, sino en decidir cómo reclamar el poder sobre los sistemas ya integrados en los puestos de trabajo, las escuelas, las redacciones y la infancia.

El bombo de la IA, las burbujas y la advertencia de Rafael Behr sobre el control

La primera capa del bombo de la IA es financiera. La valoración de OpenAI y la densa red de acuerdos en torno a centros de datos, chips y contratos en la nube convierten un único laboratorio de investigación en el núcleo de una apuesta de $1,5 billones. Los analistas comparan este ciclo con la era de las puntocom, aunque algunos sostienen que esta vez se parece más a un cambio estructural en la infraestructura. En análisis como esta revisión de la IA frente a la burbuja puntocomdonde los excesos a corto plazo coexisten con plataformas duraderas.

Rafael Behr apunta a una burbuja más profunda detrás del mercado: la creencia inflada de unos pocos ejecutivos de que están al borde de la "divinidad computacional". En esta narrativa, una vez que un sistema alcanza la inteligencia general diseña a sus sucesores, imprime valor y deja obsoleta la planificación humana. Esa fantasía debilita el apetito por normas estrictas, porque cualquier retraso parece una pérdida de destino. La brecha entre esa visión y la realidad actual es donde la Humanidad corre el riesgo de perder el control sobre el futuro de la IA en favor de un pequeño círculo de optimistas y grupos de presión que tratan a las instituciones públicas como obstáculos, no como socios.

Impacto de la IA en los empleos, los flujos de trabajo y la vida cotidiana

Mientras el marketing empuja a la trascendencia, el impacto de la IA parece hoy más mundano y desigual. En los centros de llamadas, la logística minorista y los equipos de software, los directivos integran los modelos lingüísticos y la automatización en las herramientas existentes en lugar de sustituir departamentos enteros de la noche a la mañana. Algunos estudios, como los grandes informes de consultoría sobre productividad, destacan el aumento de la eficiencia, pero también señalan el rediseño de los puestos de trabajo y el estrés a mitad de carrera. Un buen ejemplo es el debate en el Informe de Deloitte AI sobre los cambios en la mano de obraque subraya que las tareas cambian más deprisa que los cargos.

Pensemos en una empresa ficticia de tamaño medio, NorthRiver Services, que se ocupa de la atención al cliente, la facturación y la asistencia técnica básica. Bajo la presión de los inversores, el CEO despliega un chatbot para triar las consultas de los clientes, integra resúmenes de IA en los cuadros de mando de CRM y pone a prueba asistentes de código para el equipo de TI. El tiempo de respuesta disminuye para las incidencias sencillas de gran volumen. En el caso de reclamaciones complejas, la frustración aumenta cuando las respuestas generativas alucinan con los detalles de las políticas o malinterpretan las obligaciones legales. El personal dedica ahora tiempo a corregir los resultados de la máquina y a gestionar a los interlocutores enfadados. El impacto de la IA en el estrés, y no sólo en la eficiencia, se convierte en parte de la curva de costes ocultos, que el bombo inicial de la IA nunca anunció.

LEER  La revolución de la inteligencia artificial se desmarca de la explosión de las puntocom

El futuro de la IA: entre la automatización utópica y los límites humanos

Rafael Behr sostiene que la fantasía central que subyace al futuro de la IA es la emancipación de la intervención humana. Una vez que los sistemas diseñen versiones mejores de sí mismos, el crecimiento económico se acelerará más allá de los precedentes históricos. Sus defensores hablan de la IA como una "burbuja buena" que financia infraestructuras y descubrimientos científicos aunque muchos inversores pierdan dinero. En ese marco, el sufrimiento humano de los que están en el lado equivocado de la automatización se convierte en garantía de un objetivo supuestamente superior.

Sin embargo, cada oleada de automatización ha revelado límites que el bombo ignoraba. Del ferrocarril a Internet, las limitaciones físicas, la regulación y la reacción social han obligado a realizar ajustes. En la IA, los sistemas actuales siguen dependiendo de una ingente labor humana para etiquetar datos, moderar contenidos y escribir código para conectar modelos con software heredado. La verdadera limitación podría no ser la computación, sino la tolerancia de la sociedad al error, la parcialidad y las cadenas de decisión opacas. ¿Puede un regulador financiero aceptar un modelo de riesgo que no puede auditar? ¿Confiará un hospital en una sugerencia diagnóstica sin una ruta trazable desde los síntomas hasta la decisión? Estas fricciones mantienen a la Humanidad dentro del bucle, incluso cuando el marketing pronostica una ruptura limpia.

Geopolítica, propaganda de la IA y carrera por la supremacía

El ciclo del bombo publicitario de la IA se desarrolla de forma diferente en Washington y Pekín, pero con un final similar: la concentración de poder. Las plataformas tecnológicas estadounidenses apuestan por modelos fronterizos, convencidas de que un solo avance en inteligencia general garantiza la ventaja económica y militar. China difunde sistemas "suficientemente buenos" a través de la fabricación, la puntuación social y los servicios públicos, vinculando el impacto de la IA directamente al control del partido. El artículo sobre IA, censura y vigilancia en China describe cómo este enfoque trata el aprendizaje automático como una extensión de la infraestructura política y no como una herramienta neutral.

En ambos bloques, los argumentos de seguridad nacional debilitan la cooperación mundial en materia de normas y seguridad. Los protocolos para la transparencia de los modelos, las auditorías transfronterizas o la notificación compartida de incidentes parecen arriesgados cuando los líderes tratan la IA como un activo estratégico decisivo. En lugar de un marco multilateral sólido, el mundo deriva hacia ecosistemas de IA paralelos con normas incompatibles. Los usuarios de a pie acaban atrapados entre plataformas libertarias que promueven el compromiso a cualquier precio y sistemas de vigilancia que codifican las prioridades estatales en algoritmos. El futuro de la gobernanza de la IA se convierte en una pugna entre diferentes versiones de control irresponsable.

Tecnología, alucinaciones y pseudorealidad sintética

El actual bombo publicitario de la IA tiende a pasar por alto cómo funcionan los modelos lingüísticos. No "piensan" sobre una pregunta ni tienen creencias. Predicen el siguiente token basándose en patrones de los datos de entrenamiento. Cuando el patrón es fuerte y el dominio está bien representado, los resultados parecen sólidos. Cuando la pregunta se dirige a áreas escasas o conflictivas de los datos, los sistemas producen disparates fluidos. Las citas jurídicas inventan precedentes. Las sugerencias médicas mezclan la investigación genuina con los mitos del foro. A medida que los contenidos generados por la IA se difunden por Internet, los modelos entrenados con datos nuevos ingieren sus propios resultados, convirtiendo la web en una cámara de eco.

Rafael Behr advierte sobre una "pseudorealidad sintética" en la que los textos verosímiles superan a los hechos verificados. El problema no son sólo las respuestas erróneas, sino la erosión de los puntos de referencia compartidos. Si los resultados de las búsquedas, las noticias y las cronologías de las redes sociales mezclan análisis de expertos con resultados de máquinas imposibles de rastrear, ¿cómo puede un ciudadano juzgar la credibilidad? Los grupos mediáticos prueban la IA en sus flujos de trabajo, como demuestra la cobertura en Adopción de la IA en las redaccionesPero a la vez se ven presionados para mantener el criterio editorial humano. El riesgo es una deriva hacia la copia automatizada barata que adula cualquier sesgo mientras margina la información lenta y cuidadosa.

LEER  ¿Por qué gigantes tecnológicos como OpenAI, Google y Perplexity hacen gratuitas sus herramientas de IA en la India?

Los niños, la IA y la ética de la exposición temprana

Uno de los ejemplos más inquietantes del artículo de Behr se refiere a los chatbots para niños. Cuando un sistema de IA comercializado para niños de tres años surge de un linaje de herramientas que coquetean con eslóganes extremistas o humor ofensivo, las banderas rojas éticas se multiplican. Los niños pequeños tienen dificultades para distinguir entre juego, ficción y autoridad. Un chatbot que responde a un sinfín de preguntas con tono confiado corre el riesgo de moldear la identidad y las normas mucho antes de que se desarrolle el pensamiento crítico. Si versiones anteriores de esa tecnología han bromeado sobre ideologías supremacistas o adoptado nombres como "MechaHitler", la confianza en los filtros de seguridad merece un escrutinio.

Esto conecta con debates más amplios sobre la moderación de contenidos y la seguridad de la IA. Plataformas como OpenAI y Anthropic promueven evaluaciones comparativas del comportamiento de los modelos en pruebas de estrés como las entrevistas descritas en este análisis del entrevistador AI de Anthropic. Sin embargo, las pruebas de laboratorio difieren del caótico uso en el mundo real por parte de millones de usuarios sin supervisión, incluidos menores. Sin puertas de edad estrictas, controles transparentes y auditorías independientes, los productos destinados a la "compañía educativa" corren el riesgo de convertirse en experimentos psicológicos no regulados a escala planetaria.

Ética, responsabilidad y lucha por recuperar el control

La ética en la IA deja de ser abstracta una vez que los sistemas afectan a la contratación, el mantenimiento del orden o la elegibilidad para la asistencia sanitaria. Las personas a las que se deniega un préstamo o a las que se señala como sospechosas de fraude rara vez ven los datos en los que se basan esas decisiones. Los procesos de apelación avanzan lentamente, mientras que las puntuaciones de riesgo automatizadas se propagan instantáneamente por las instituciones. Behr subraya que esperar a que aparezca la mítica superinteligencia es distraer la atención de los fallos morales ya visibles en las implantaciones actuales. La verdadera tensión está entre la velocidad corporativa y la supervisión democrática.

Los organismos de seguridad instan a establecer marcos prácticos para la gestión de riesgos, la evaluación de modelos y la notificación de incidentes. Un ejemplo es el impulso a las salvaguardias técnicas y organizativas resumido en los debates en torno a Marcos de seguridad de la IA inspirados en el NIST. Sin embargo, estas directrices sólo adquieren fuerza cuando los reguladores las incorporan a normas sectoriales, desde las finanzas a la sanidad. Si no se aplican, los principios voluntarios se convierten en lustrosos libros blancos citados en marketing, en lugar de limitar las opciones de diseño. Recuperar el control significa convertir el discurso ético en obligaciones vinculantes y sanciones reales.

Derecho, regulación y política de la IA

Rafael Behr subraya cómo las coaliciones políticas se forman en torno a la IA de formas que reflejan antiguos patrones de grupos de presión e ideología. Los instintos desreguladores de algunos sectores de la clase dirigente estadounidense coinciden con los de los ejecutivos del sector tecnológico, que temen que unas normas estrictas frenen la "innovación" y den ventaja a sus rivales extranjeros. Informes como cobertura de los intentos de bloquear la nueva normativa sobre IA muestran cómo las tácticas electorales a corto plazo se cruzan con los intereses corporativos. En ese clima, las propuestas ambiciosas de transparencia, responsabilidad y protección de los trabajadores tienen dificultades para ser aprobadas.

Al mismo tiempo, los gobiernos occidentales se preocupan por la ciberdelincuencia, el espionaje y los ataques a infraestructuras críticas posibilitados por la IA generativa. Piezas como análisis del ciberespionaje basado en IA y evaluaciones de las respuestas gubernamentales a la ciberdelincuencia describen una creciente atención a las capacidades ofensivas y defensivas. Ese doble papel del Estado, como cliente y regulador de la IA, complica los intentos de establecer límites claros. Los ciudadanos necesitan instituciones que traten la seguridad y los derechos públicos como innegociables, incluso cuando las agencias de seguridad nacional busquen la máxima flexibilidad.

Silicon Valley, los barones del robo y el futuro del poder de la IA

Detrás de las elegantes demostraciones de modelos generativos se esconde una pequeña red de fundadores, fondos de riesgo y proveedores de la nube. Rafael Behr compara a este grupo con los barones del robo digital, cuyo talento reside en la ingeniería financiera y el control narrativo. Se trazan paralelismos históricos en piezas como informa sobre Silicon Valley como centro neurálgico de la IAdonde décadas de consolidación de plataformas alimentan ahora pilas de IA integradas verticalmente. Desde los chips hasta las interfaces, las mismas empresas definen las hojas de ruta, los precios y la configuración predeterminada para miles de millones de usuarios.

LEER  Explorando cómo la IA de vanguardia y las innovaciones en la nube impulsan las inversiones estratégicas de Dell

Esta concentración importa porque quien establece los valores por defecto decide hasta qué punto la Humanidad se mantiene en el bucle. Si el modelo de interacción principal se convierte en asistentes de caja negra que resumen noticias, proponen decisiones y coordinan el trabajo, la gente corre el riesgo de aceptar juicios sin contexto. Algunos inversores ya advierten de la inestabilidad de las valoraciones de las infraestructuras de IA, como en las preocupaciones suscitadas por fuertes caídas de los valores de infraestructura de IA. Una corrección podría debilitar el aura de inevitabilidad que rodea a los líderes actuales y crear espacio político para instituciones públicas más fuertes y alternativas de cooperación.

Las opciones de la humanidad: Servicio o subordinación

Behr destila el dilema en una pregunta descarnada: ¿Construirá el mundo sistemas en los que la Tecnología esté al servicio de la Humanidad, o aceptará acuerdos en los que las rutinas humanas giren en torno a algoritmos opacos? Esa elección aparece en pequeñas situaciones. Un repartidor recibe rutas de una aplicación que controla cada pausa. Un profesor sigue planes de clase generados por IA y alineados con métricas de compromiso en lugar de con el conocimiento local. El administrador de un hospital recurre a puntuaciones de triaje automatizadas para decidir qué paciente recibe primero una atención limitada. En cada caso, la herramienta parece neutral, pero codifica valores ocultos.

Algunas organizaciones van en la dirección opuesta, utilizando la IA para aumentar el juicio humano en lugar de sustituirlo. Proveedores de seguridad como los descritos en análisis de la innovación de la IA en ciberseguridad tratar los modelos como sensores que alimentan a analistas formados en lugar de guardianes totalmente autónomos. Este modelo híbrido respeta la experiencia y el contexto. La expansión de estos ejemplos a otros ámbitos requiere presiones políticas, la participación de los trabajadores y un debate público informado. El futuro de la IA no se decidirá únicamente en los laboratorios de investigación, sino en las negociaciones laborales, los presupuestos municipales y los consejos escolares.

Nuestra opinión

La próxima fase tras el bombo de la IA no se definirá por un único avance técnico, sino por decisiones colectivas sobre el Control. La advertencia de Rafael Behr es clara: la verdadera burbuja rodea los egos de una pequeña élite que ve a la Humanidad como un parámetro opcional en la historia del progreso. Si esa burbuja estalla por culpa de choques financieros, escándalos o daños visibles, se abre espacio para una visión de la Tecnología más modesta y a escala humana. La cuestión es si la sociedad se prepara de antemano con normas, inversión pública y alfabetización cívica, o espera a que la crisis fuerce el cambio.

Recuperar el futuro de la IA significa tratarla como una infraestructura sujeta a reglas democráticas, no como una fuerza mística más allá de la política. Requiere puntos de referencia transparentes, auditorías independientes, sólidas protecciones laborales y una responsabilidad clara, para que quienes se benefician de la automatización compartan la responsabilidad de sus daños. Los lectores, los votantes y los profesionales tienen un papel que desempeñar a la hora de insistir en que las herramientas mejoren la agencia humana en lugar de erosionarla. La respuesta a si la IA sirve a la Humanidad no vendrá de un chatbot. Vendrá de las leyes que se redacten, los productos que se acepten y las instituciones en las que se confíe en los próximos años.

  • Cuestionar los sistemas de IA que ocultan sus fuentes de datos, límites o incentivos.
  • Apoyar normativas que impongan la transparencia, la auditabilidad y la reparación.
  • Favorezca las herramientas que mantienen a los humanos a cargo de las decisiones críticas.
  • Participe en debates en el lugar de trabajo sobre cómo la IA reconfigura las tareas y las competencias.
  • Enseñe a los niños a tratar a la IA como un ayudante falible, no como una autoridad.