El colapso de las empresas de IA: Lo que podemos aprender y preservar de las consecuencias | Cory Doctorow

Las empresas de IA dominan los índices bursátiles y las conversaciones en las salas de juntas, pero el temor al colapso crece cada trimestre. La actual oleada de inversiones en IA se parece menos a una innovación tecnológica estable que a una apuesta sobreapalancada por la automatización que no funciona como prometía. Basándose en los argumentos popularizados por Cory Doctorow, este texto examina cómo el fracaso empresarial en IA refleja burbujas pasadas, qué lecciones son importantes para trabajadores y usuarios, y qué herramientas merecen ser preservadas una vez que se produzcan las consecuencias. No se trata de predecir el futuro de la IA, sino de diseccionar quién se beneficia, quién paga y qué queda cuando se desvanece el bombo publicitario.

Detrás de las brillantes demostraciones se esconde una dura realidad económica. Los monopolios tecnológicos obsesionados con el crecimiento necesitan una nueva historia para justificar las valoraciones extremas, después de que las criptomonedas y el metaverso perdieran su brillo. Las empresas de IA desempeñan ese papel vendiendo a los inversores una narrativa en la que el software sustituye a la costosa mano de obra a escala industrial. Sin embargo, en la práctica, los sistemas de IA a menudo degradan la calidad, ahuecan la experiencia y crean lo que Doctorow llama "centauros inversos": humanos reducidos a periféricos biológicos para algoritmos indiferentes. Cuando este modelo se rompe, las consecuencias corren el riesgo de parecerse a los frenesíes especulativos del pasado en criptomonedas, como ilustran los análisis del Colapso del criptoimperio vinculado a Trump o la fragilidad de la riqueza apalancada de Bitcoin. Comprender estos paralelismos ayuda a identificar lo que merece ser preservado tras el estallido de la burbuja de la IA: las herramientas abiertas, las habilidades humanas y la infraestructura dura, en lugar de las fantasías financieras.

El colapso de las empresas de IA y la crítica de Doctorow a los mitos del crecimiento

La tesis central que subyace a la visión del "colapso de las empresas de IA" es brutalmente simple. Las grandes empresas tecnológicas ya ocupan posiciones casi monopolísticas en anuncios, ecosistemas móviles e infraestructura en la nube. Una vez que una empresa satura su mercado, los inversores empiezan a tratarla como "madura", lo que amenaza su relación precio-beneficio y su capacidad para comprar rivales o talento con acciones infladas. Para evitar esta reclasificación, los ejecutivos necesitan una nueva historia de crecimiento que parezca lo suficientemente grande como para mover la aguja de las valoraciones de billones de dólares. Las empresas de IA ofrecen exactamente esa narrativa.

Cory Doctorow subraya que no se trata tanto de pura innovación tecnológica como de teatro financiero. La propuesta a Wall Street es sencilla: La IA hará tu trabajo, tu jefe te despedirá, se quedará con la mitad de tu sueldo y enviará la otra mitad a un proveedor de IA. En este escenario se basan las exorbitantes proyecciones de billones en nuevo valor. La historia muestra guiones similares en burbujas criptográficas y empujes metaversos, muchos de ellos cubiertos en profundidad en piezas como la advertencia sobre la La IA hace burbujear hasta al CEO de Google. Las afirmaciones técnicas importan, pero el verdadero motor es la exigencia de mantener vivos los múltiplos de crecimiento a cualquier precio.

Empresas de IA, poder monopolístico y la máquina de burbujas

Una vez que existe un control monopolístico sobre los anuncios, las búsquedas, los sistemas operativos móviles y las plataformas en la nube, la expansión orgánica se ralentiza. Las historias de crecimiento pasan de ganar mercados a "reinventarlos". En la práctica, esto significa un ciclo de bombo y platillo en torno al vídeo, las criptomonedas, el metaverso y ahora la IA. Cada ciclo quema capital con la esperanza de que una narrativa se mantenga el tiempo suficiente para pasar a la siguiente. Cuando un ejecutivo dice que la IA "lo transformará todo", el subtexto suele ser "nuestro ratio PE necesita una nueva razón para seguir inflado".

Doctorow sostiene que este patrón recurrente alimenta una máquina estructural de burbujas. Un puñado de empresas de IA se embolsan cientos de miles de millones, intercambiando pagarés entre ellas mientras confían en créditos en la nube, dinero barato y adquisiciones basadas en acciones. Las pruebas de la historia de las criptomonedas refuerzan lo frágiles que parecen estas construcciones cuando cambian las condiciones externas. Informes como el análisis de el rendimiento histórico de las ICO muestran cómo los inversores minoristas acaban llevándose el gato al agua una vez que los iniciados abandonan el mercado. La IA se encuentra en la misma línea de falla, con una huella mucho mayor en la infraestructura básica.

LEER  El impacto de la IA en la detección de amenazas cibernéticas

Centauros invertidos y el coste humano del fracaso empresarial de la IA

Una de las lecciones más fuertes que se pueden extraer de la obra de Doctorow es la distinción entre centauros y centauros inversos. Un centauro utiliza la tecnología como una extensión que amplifica las fuerzas humanas. El centauro inverso es el frágil complemento de un proceso mecánico rígido. Las empresas de IA prometen mejoras al estilo de los centauros, pero a menudo despliegan sistemas que empujan a los trabajadores a la posición inversa, soportando el estrés y la culpa mientras los algoritmos dictan el ritmo y los resultados.

Pensemos en un sistema logístico de inteligencia artificial que mide cada movimiento de un conductor de reparto. Las cámaras detectan "distracciones", los modelos de micrófono clasifican los cantos como improductivos y los optimizadores de rutas reducen los descansos a segundos. La furgoneta no puede llevar los paquetes hasta la puerta, pero el conductor ya no controla el tiempo ni el ritmo. Cuando la IA juzga mal las condiciones, la dirección disciplina al conductor, no al código. El fracaso empresarial de estas empresas de IA no borraría el daño: la vigilancia normalizada, la confianza degradada y el personal quemado siguen siendo secuelas que deben abordarse y, en la medida de lo posible, revertirse.

La IA en radiología y codificación: dónde se rompe la promesa

La radiología aparece a menudo en las presentaciones empresariales como prueba de que la IA superará a los expertos. Doctorow invierte esta lógica. Una implantación realista utilizaría la IA para el cribado secundario, permitiendo a los radiólogos humanos procesar menos imágenes al día con mayor precisión. Esta vía mejora los resultados, pero aumenta los costes. En cambio, el verdadero argumento comercial se dirige a los ejecutivos: despedir a nueve de cada diez radiólogos, pagar a un proveedor de IA una gran suscripción y dejar a un humano como "sumidero de responsabilidad" por los tumores no detectados.

La ingeniería de software muestra tensiones similares. Muchos desarrolladores aprecian la ayuda de la IA para la repetición de tareas o refactorizaciones rápidas. Sin embargo, cuando la dirección utiliza esto como motivo para despedir a personal experimentado y esperar que el equipo restante valide grandes volúmenes de código generado por IA, el perfil de error cambia. Los modelos estadísticos generan llamadas a bibliotecas o patrones plausibles pero sutilmente defectuosos que los atacantes aprovechan. Los desarrolladores veteranos, las personas con más probabilidades de detectar estos problemas, suelen ser los primeros en aparecer en las listas de despidos. Los estudios sobre IA y empleo, como los debates sobre La inteligencia artificial sustituye a los empleos del conocimientoA menudo se ignora esta dinámica de pérdida de calidad disfrazada de aumento de productividad.

Caída económica: lecciones sobre criptomonedas para el futuro colapso de la IA

Las empresas de IA operan en un macroentorno moldeado por anteriores frenesíes especulativos. Las criptomonedas experimentaron oleadas de adopción eufórica y correcciones brutales, vinculadas a marcas políticas, apoyos de celebridades y narrativas de "oro digital". Muchas personalidades de alto nivel promovieron tokens que luego implosionaron, como han puesto de relieve las investigaciones sobre la riqueza impulsada por las criptomonedas se desploma en torno a las personalidades políticas o estrategias corporativas vinculadas a una exposición agresiva al Bitcoin. La fiebre de la IA toma prestado en gran medida de ese libro de jugadas, pero con una mayor integración en la infraestructura crítica.

Cuando las valoraciones de la IA se desplomen, las víctimas inmediatas serán los fondos de pensiones y los inversores muy expuestos a los índices de las grandes empresas tecnológicas. Pero las consecuencias secundarias se extienden aún más. El exceso de capacidad de los centros de datos, los clusters de GPU varados y las plataformas experimentales abandonadas crean un lío material. La comparación con los artículos sobre posibles escenarios de colapso para las empresas de criptomonedas es instructivo. En ambos casos, la cuestión es si queda algo productivo una vez que la estructura apalancada fracasa.

Mecánica de burbujas: Empresas de IA, finanzas y transferencia de riesgos

Doctorow subraya cómo las empresas de IA funcionan como máquinas de transferencia de riesgos. Los que están dentro disfrutan de la revalorización de las acciones alimentada por las narrativas que prometen una automatización radical. Los inversores externos absorben las pérdidas cuando fallan las expectativas. El mecanismo se asemeja a los primeros mercados de criptomonedas, donde los productos estructurados y los derivados amplificaban la volatilidad. Los analistas que siguen importantes caídas de Bitcoin y Ether muestran cómo las liquidaciones en cascada magnifican la tensión mucho más allá de los desencadenantes iniciales.

En la IA, el apalancamiento adopta una forma diferente. Los créditos en la nube, las compensaciones basadas en acciones, la financiación de proveedores y las inversiones cruzadas entre hiperescaladores se suman a las dependencias ocultas. Cuando una gran empresa de IA tropieza, los proveedores y clientes relacionados experimentan rápidas conmociones en el mercado. Este vínculo sistémico explica por qué Doctorow describe la IA como "amianto en las paredes": algo que se introduce por todas partes en busca de beneficios a corto plazo, con costes de limpieza a largo plazo que se trasladan a la sociedad. La lección principal es clara: la economía de la burbuja, y no las capacidades tecnológicas puras, determina el perfil de riesgo real.

LEER  La encrucijada de Amazon: ¿Resistirse a los robots de compra de IA o abrazar el futuro con ellos?

Preservación tras la caída: qué sigue siendo útil cuando las empresas de IA fracasan

A pesar de las críticas, Doctorow no aboga por la regresión tecnológica. La cuestión clave es qué merece ser preservado una vez que las empresas de IA colapsen. La historia ofrece precedentes alentadores. Las empresas de telecomunicaciones fraudulentas dejaron tras de sí redes de fibra que más tarde proporcionaron banda ancha barata. Las puntocom que fracasaron produjeron habilidades, protocolos abiertos y bases de código que aún alimentan la web. Con el mismo espíritu, es probable que las consecuencias de la IA dejen infraestructuras y herramientas que serán más valiosas cuando acabe la especulación.

Destacan tres categorías. En primer lugar, el capital humano: miles de ingenieros formados en estadística aplicada, diseño de sistemas y operaciones de ML. En segundo lugar, el hardware: el excedente de GPU y aceleradores reutilizados para la simulación climática, la modelización científica y el trabajo con efectos. En tercer lugar, modelos abiertos: sistemas más pequeños adaptados a tareas específicas como la transcripción, el resumen y la edición de imágenes que se ejecutan en dispositivos básicos. Fuera de los marcos especulativos, estos sistemas parecen menos una inteligencia devoradora del mundo y más unos complementos eficientes.

Modelos abiertos, herramientas locales e innovación tecnológica saludable

Una vez que los mercados de capitales pierdan interés por los gigantescos "modelos fundacionales" deficitarios, la atención se desplazará hacia sistemas compactos y auditables. La transcripción local, la descripción de imágenes y la eliminación del fondo ya ofrecen un gran valor en portátiles y teléfonos. Estas funciones no requieren conectividad permanente a Internet, recopilación invasiva de datos ni dependencia de un único proveedor. Se ajustan a una visión más sana de la innovación tecnológica, en la que las herramientas capacitan a los usuarios en lugar de extraer rentas o permitir la vigilancia masiva.

El argumento de Doctorow apunta hacia un ecosistema en el que la IA se comporte más como una biblioteca estándar o un plugin. Los desarrolladores integran modelos como componentes, no como sustitutos monolíticos del juicio humano. Este enfoque también reduce la influencia que permitía a un pequeño cártel de empresas de IA dictar las condiciones a industrias enteras. Así pues, el trabajo de preservación más valioso consiste en documentar los pesos abiertos, los procedimientos de formación y las pautas de despliegue antes de que los colapsos empresariales los entierren tras procedimientos de quiebra y ventas de activos. Convertir los residuos de las burbujas en infraestructuras públicas transforma la lluvia radiactiva en cimientos.

Lecciones jurídicas: derechos de autor, arte de la IA y fracaso empresarial

Gran parte del debate público en torno a las empresas de IA se centra en los datos de entrenamiento y los derechos de autor. Doctorow adopta una postura impopular pero rigurosa. La actual ley de derechos de autor permite leer, contar y publicar datos sobre obras. El entrenamiento de modelos encaja en ese marco. Si se amplían los derechos de autor para cubrir este tipo de análisis, se corre el riesgo de capturar una amplia gama de actividades socialmente útiles, desde la indexación de búsquedas hasta la minería de textos académicos, al tiempo que se hace poco para proteger a los artistas individuales del fracaso empresarial de las empresas de IA o los conglomerados de medios de comunicación.

Hace hincapié en un aspecto estructural. La concentración de los mercados de medios de comunicación garantiza que los derechos adicionales beneficien normalmente a los intermediarios, no a los creadores. La historia desde los años 70 muestra un aumento constante del alcance de los derechos de autor junto con una disminución de los ingresos de los artistas en activo. Los pleitos enmarcados en la defensa de la creatividad suelen dar lugar a actualizaciones contractuales repetitivas en las que los estudios y los sellos discográficos exigen la cesión de nuevos derechos. En ese entorno, un "derecho de formación" parece menos un escudo para los artistas y más una nueva munición para las negociaciones empresariales.

Dominio público, resultados de la IA y preservación estratégica

El avance jurídico más prometedor que destaca Doctorow procede de la Oficina de Derechos de Autor de Estados Unidos. Al insistir en que las obras generadas por IA no pueden acogerse a los derechos de autor a menos que intervenga una aportación creativa humana significativa, los reguladores introducen una restricción comercial que el bombo del mercado suele ignorar. Si un estudio produce una película íntegramente con IA, los competidores pueden copiarla o redistribuirla libremente. Para asegurarse derechos exclusivos, las empresas deben emplear a creadores humanos y documentar su contribución.

LEER  La IA muestra instintos de autoconservación: un experto advierte de que los humanos deben estar preparados para desconectarse

Este principio ofrece una clara vía de preservación. Los flujos de trabajo híbridos en los que los humanos dirigen y refinan los resultados de la IA siguen siendo protegibles y, por tanto, comercialmente viables. En cambio, las granjas de contenidos totalmente automatizadas producen material desprotegido que otros reproducen, remezclan o rebajan a voluntad. Desde el punto de vista de las lecciones, este régimen empuja al sistema hacia la colaboración al estilo de los centauros y lo aleja de la explotación a la inversa. También elimina una fuente de ingresos clave de las empresas de IA que prometen eliminar por completo el trabajo creativo.

Poder de los trabajadores, negociación sectorial y resistencia tras el colapso

Una vertiente esencial del pensamiento de Doctorow se refiere al poder laboral. La huelga del Gremio de Guionistas de Estados Unidos demostró cómo los trabajadores organizados de un sector creativo pueden obligar a los empresarios a negociar límites en el despliegue de la IA. La acción colectiva garantizó salvaguardias en materia de créditos, remuneración y participación humana mínima en la producción de guiones. A diferencia de la mayoría de las profesiones, los guionistas estadounidenses disfrutan de la negociación sectorial, lo que les permite negociar como un bloque unificado contra todos los grandes estudios.

La mayoría de los trabajadores carecen de esa influencia. La legislación laboral tradicional restringe los convenios sectoriales en muchos países, fragmentando la negociación en luchas a nivel de empresa en las que las grandes corporaciones tienen una ventaja abrumadora. En un contexto de IA, esta fragmentación facilita que los empresarios establezcan condiciones de centauro inverso y las presenten como inevitables. Una de las lecciones más profundas del análisis de Doctorow es que la protección duradera contra el despliegue abusivo de la IA depende más de los marcos de negociación colectiva que de modificaciones puntuales de los derechos de autor o de normas técnicas.

Principales lecciones prácticas para trabajadores y usuarios

Condensar la perspectiva de Doctorow en orientaciones prácticas conduce a una lista concreta de comportamientos y prioridades. Éstas ayudan a las personas a interpretar las reclamaciones de las empresas de IA y a prepararse para las consecuencias cuando se produce un fracaso empresarial. El objetivo no es el miedo, sino una gestión clara del riesgo.

  • Trate con escepticismo las promesas de sustitución total de puestos de trabajo y examine quién sale ganando con la narrativa.
  • Resistirse a los papeles de centauro invertido en los que los humanos corren riesgos legales y emocionales por sistemas opacos.
  • Apoye las herramientas de IA abiertas y locales que se ejecutan en dispositivos que usted controla en lugar de plataformas opacas en la nube.
  • Apoyar los esfuerzos en favor de la negociación sectorial y las normas colectivas sobre el uso de la IA en el trabajo.
  • Rastrea paralelismos con otras burbujas financieras, como el agresivo apalancamiento de criptomonedas o los esquemas de fichas políticas.
  • Centrar la defensa en los derechos sobre los datos, las condiciones laborales y los límites a la vigilancia, en lugar de limitarse a retocar los derechos de autor.
  • Presionar a las instituciones para que documenten y abran sus modelos y herramientas antes de que las ventas de activos en dificultades las bloqueen.

Cada uno de estos puntos coincide con el hilo conductor de la obra de Doctorow: tratar la IA no como una profecía o un destino, sino como un conjunto de decisiones corporativas contingentes que responden a la presión.

Nuestra opinión

El colapso de las empresas de IA, si llega y cuando llegue, no marcará el final de la IA como conjunto de técnicas. Marcará el final de una historia financiera específica que trata los modelos estadísticos como un atajo para suprimir salarios y ampliar el poder del monopolio. Las lecciones más importantes del análisis de Cory Doctorow se refieren a dónde centrar la resistencia: en las prácticas empresariales que crean centauros inversos, en los incentivos de la economía burbuja que premian el bombo publicitario por encima de la fiabilidad, y en los marcos legales que afianzan el control corporativo en lugar de la creatividad humana.

Los esfuerzos de preservación deben dar prioridad a los modelos abiertos, las infraestructuras reutilizables y las estructuras de gobernanza favorables a los trabajadores. Es probable que la sociedad herede abundante capacidad de computación, profesionales cualificados y una biblioteca de herramientas más pequeñas y capaces una vez que se rompa la actual ola especulativa. La tarea consiste entonces en rechazar el fatalismo, dirigir esos activos hacia un aumento al estilo de los centauros y tratar las consecuencias del fracaso empresarial de la IA como materia prima para un futuro de la IA más seguro y responsable, en lugar de como una razón para abandonar la tecnología por completo.