 |
|
Este tipo de
acuerdos son claves para el futuro de la IA generativa, porque determinan la
calidad de las respuestas que puede ofrecer un sistema y, por tanto, su utilidad
real en contextos profesionales.
Más allá del talento y los datos, hay un factor que se menciona poco, pero que
ya preocupa a los líderes de la industria: la energía. El entrenamiento de estos
modelos demanda un consumo eléctrico gigantesco. No se trata solo de tener
centros de datos, sino de mantenerlos operativos sin comprometer la
sostenibilidad. Sam Altman, CEO de OpenAI, ha dicho abiertamente que el futuro
de la inteligencia artificial pasa por una revolución en la generación de
energía. Y no se quedó en palabras: ha invertido más de 375 millones de dólares
en startups como Helion Energy y Oklo, que desarrollan energía de fusión y
reactores nucleares modulares, respectivamente. La idea es clara: si el mundo
quiere modelos más potentes, también necesita fuentes de energía más limpias,
estables y escalables.
En medio de esta lucha por el poder computacional, las startups juegan un papel
clave. Aunque tienen menos recursos, se mueven con rapidez y creatividad.
Empresas como Mistral o Anthropic han demostrado que se pueden desarrollar
modelos competitivos con equipos pequeños pero altamente especializados. Arthur
Mensch, cofundador de Mistral, afirma que sus competidores desperdician recursos
en entrenamientos mal optimizados. Su estrategia, entonces, no es superar en
tamaño, sino en eficiencia. Es una apuesta arriesgada, pero también una forma de
resistir al dominio de los gigantes.
Las grandes empresas de cloud, mientras tanto, buscan consolidar su posición.
Ofrecen acceso a computación en la nube a cambio de participaciones accionarias
en startups emergentes. También invierten en marketing, adquieren ingenieros de
forma directa y negocian con proveedores de contenido para asegurar acceso
privilegiado a información valiosa. Todo esto lo hacen con discreción,
conscientes de que los reguladores ya miran con lupa cualquier movimiento que
implique concentración excesiva del mercado. La SEC, por ejemplo, ha advertido
sobre el “AIwashing”, una práctica engañosa donde empresas afirman usar
inteligencia artificial sin hacerlo realmente o exagerando sus capacidades. Es
una señal de que el entusiasmo del mercado también puede ser un arma de doble
filo.

Hoy, la única empresa que parece ganar sin controversia es Nvidia. Su ascenso
meteórico no se basa en promesas futuras, sino en ventas reales, márgenes
extraordinarios y una demanda creciente por sus chips. De los 50.000 millones de
dólares invertidos por empresas en tecnología relacionada con IA, buena parte ha
terminado en sus arcas. El resto del ecosistema, sin embargo, aún busca cómo
transformar la inversión en rentabilidad.
Así, la carrera de la inteligencia artificial generativa sigue en curso,
vertiginosa e impredecible. No hay un solo vencedor. Hay varios frentes,
múltiples estrategias y demasiados intereses en juego. Lo único seguro es que
esta tecnología ya no es opcional. Ha llegado para quedarse, y lo que se define
hoy determinará quién tendrá el control del futuro digital del planeta. Las
piezas están en movimiento. El reloj no se detiene. Y el juego, aunque
silencioso, nunca fue tan decisivo.
|
La inteligencia artificial generativa ha dejado de ser una promesa
lejana para convertirse en una fuerza palpable que atraviesa el
mundo empresarial, tecnológico y financiero. Lo que comenzó como una
curiosidad académica hoy está transformando radicalmente la forma en
que las personas interactúan con las máquinas, al punto que los
sistemas pueden ser consultados como si fueran colegas de trabajo,
respondiendo con precisión, contexto y velocidad. Pero mientras los
usuarios se fascinan con sus capacidades, en el trasfondo se libra
una competencia feroz por el dominio de esta tecnología. ¿Quién va
ganando esta carrera global?
Los gigantes tecnológicos —OpenAI, Microsoft, Google, Amazon—
lideran buena parte del desarrollo. No sólo porque tienen los
modelos más potentes, sino porque controlan el acceso a los tres
elementos clave que hacen posible esta revolución: el cómputo, los
datos y el talento especializado. En este nuevo juego, no gana quien
prometa más, sino quien demuestre que puede escalar la tecnología y
monetizarla de manera sostenible.

El acceso al cómputo es, sin duda, la piedra angular. Entrenar un
modelo de IA generativa avanzado puede costar decenas de millones de
dólares, en buena parte por el uso intensivo
de unidades de procesamiento gráfico (GPUs) de última generación. No
es casual que la demanda de estos chips haya disparado a Nvidia al
estrellato bursátil: la empresa se ha convertido en el gran
proveedor de la infraestructura que hace posible esta carrera.
Algunos analistas comparan la actual fiebre por los chips con las
carreras petroleras del siglo pasado. Incluso Elon Musk llegó a
afirmar, medio en broma y medio en serio, que
conseguir GPUs era más difícil que comprar drogas.
Pero el reto no es solo financiero o logístico. Se trata también de
talento. Aunque existen en el mundo cerca de 140.000 ingenieros con
experiencia en inteligencia artificial, sólo unos cientos son
realmente capaces de diseñar y entrenar los modelos más complejos.
Son
profesionales que no solo dominan la teoría, sino que saben
optimizar procesos, reducir el consumo
energético y mejorar el rendimiento computacional de sus sistemas.
|
|
Su contratación se ha vuelto una batalla en sí misma.
Microsoft, por ejemplo, recientemente incorporó casi todo el equipo de una
startup llamada Inflection, sin adquirir la empresa, como una forma agresiva de
ganar capacidad humana sin pasar por fusiones ni compras formales. Es un
fenómeno cada vez más común: los gigantes adquieren cerebros en masa, sabiendo
que el verdadero diferencial ya no está en la infraestructura, sino en la gente
que sabe cómo usarla.
Sin embargo, hay una paradoja en este flujo de talento. Muchos ingenieros que
entran a las grandes tecnológicas terminan saliendo al poco tiempo para fundar
nuevas compañías, hartos de las limitaciones corporativas o en busca de mayor
libertad creativa. Es un ciclo constante de entradas y salidas que mantiene viva
la innovación, a pesar del control de los grandes. Basta recordar que ninguno de
los ocho ingenieros que desarrollaron los modelos fundacionales de la IA
generativa dentro de Google sigue en la empresa hoy.

Otro punto central en esta carrera es el de los datos. Durante años se
consideraron una materia prima barata, pero hoy son vistos como el verdadero
combustible diferenciador. Modelos entrenados con información pública, muchas
veces desorganizada o llena de sesgos, generan resultados menos precisos y
confiables. Por eso, ahora vemos a empresas desarrollando sus propios modelos
entrenados exclusivamente con información de alta calidad. Bloomberg, por
ejemplo, creó BloombergGPT con su archivo financiero interno. Su objetivo
era claro: lograr un modelo capaz de interpretar datos bursátiles, redactar
análisis financieros y comprender el lenguaje especializado de su sector. La BBC
también ha comenzado a explorar el desarrollo de modelos entrenados con su
propio material audiovisual y editorial. En ambos casos, se trata de sacar
provecho de una ventaja comparativa: información exclusiva, ordenada y
especializada.
Las grandes tecnológicas no se quedan atrás. OpenAI ha cerrado un acuerdo
multimillonario con el conglomerado alemán Axel Springer para tener acceso a sus
archivos editoriales y a contenido noticioso actualizado. Es una forma de
escapar de la saturación de datos públicos y entrenar modelos con fuentes
verificadas, actuales y ricas en matices.
|