De la curiosidad a la infraestructura: lo que aprendí al llevar la IA de la conversación al supercómputo

Escrito por
Eduardo Castro
Fecha de publicación
July 19, 2025

"ChatGPT Me Impresionó. Pero Construir IA Real es Otra Historia"

Lecciones personales desde la creación de infraestructura, aplicación empresarial y visión país en inteligencia artificial.

Pasa todo tan rápido, que para mí fue recién hace unos meses cuando la inteligencia artificial irrumpió en nuestras vidas diarias y nos cambió la percepción del trabajo.

Pero en realidad, fue hace dos años en 2023, cuando muchos abrimos por primera vez una cuenta en ChatGPT, plataforma que mi socio Javier, en tono de broma, llama: “la magia negra”.

Ese nombre siempre me causa risa, porque refleja muy bien cómo muchas personas aún no saben qué pensar respecto a estas tecnologías. De hecho, no son pocos los que aplican el concepto de “caja negra”, esa idea de que algo pasa por un proceso misterioso que entrega un resultado, pero sin que nadie entienda realmente qué ocurre dentro de la caja.

Al principio, muchos sobreestimaron su impacto, otros la subestimaron. Hoy, todos tenemos claro que será parte permanente de nuestras vidas. La inteligencia artificial nació como concepto en los años 1950, aunque ya en los años 1940 había ideas precursoras. ¿Entonces por qué han pasado casi ocho décadas para que llegara a nosotros? Es confuso.

Porque… ¿desde cuándo existen los computadores? Los primeros equipos que podrían considerarse computadoras surgieron en los años 1940, pero no fue hasta los años 1990 que comenzaron a llegar masivamente a nuestros hogares. Así que podríamos decir que la era de la IA nació junto a los precursores de la computación, y solo ahora, muchas décadas después, entra a nuestras casas de forma natural.

Ya en los años 1990 comenzaban a verse aplicaciones concretas en las empresas con sistemas antifraude en la banca, gestión de rutas y otros casos, principalmente en grandes corporaciones. En mi caso, tuve mi primer acercamiento real con la IA empresarial en la década de 2010, cuando en Miami conocí Watson de IBM. Me impresionó cómo manejaba perfiles de clientes buscando información en sus redes sociales y eso era solo una de las cosas que podía hacer. Pero todo quedó ahí, como una anécdota que contaba en reuniones con amigos: “me respondía un robot lo que yo le decía y podía saber cosas acerca de mi”.

Watson era presentado en un robot que escuchaba lo que decias y te respondía con IA.

Por eso, cuando aparece un chat como ChatGPT, con el que cualquiera puede interactuar sin gastar millones como habría ocurrido con Watson, se sintió como el nacimiento de algo realmente nuevo.

¿Qué fue eso nuevo, si la IA existe hace décadas? La IA generativa es lo nuevo. (Que aprovechó la gran capacidad de computo que ofrecían las GPUs y la gran cantidad de datos que tenía la Internet, la que fue usada para entrenarse)

¿Y cuál es la que había antes? La IA tradicional.

La diferencia entre la IA tradicional y la IA generativa que nos dejó asombrados y se hizo masiva es que la primera se basa en clasificar, predecir o tomar decisiones a partir de datos estructurados o reglas. En cambio, la IA generativa crea contenido original: texto, audio, video e incluso código de programación.

Si esta explicación les parece muy simple, lamento decir que en realidad es más complejo. Existen otros tipos de inteligencia artificial dentro de esas categorías, como la simbólica, la evolutiva/genética, la profunda, la interactiva y la híbrida. Para enredarlo aún más, muchas combinan elementos de unas y otras para funcionar. Esto es algo que cuesta comprender y manejar, entonces ¿Por donde partimos para comprender esto y poder usar la IA de manera aplicada?.

En 2023, asignamos en nuestro presupuesto Tecnoera 2024 un monto para invertir en infraestructura que nos permitiera explorar esta inteligencia artificial que tanto nos había impresionado. Pero en el proceso de comprarla y analizar cómo podíamos disponibilizarla, nos dimos cuenta de algo importante: hacer grandes cosas con IA requiere una inversión considerable, y más complejo aún, implementar modelos de IA es “otro mundo”, muy distinto a la programación clásica que conocemos. Para colmo, descubrimos que todavía no existe una demanda clara por parte de integradores ni de clientes finales, lo que hace todo aún más incierto.

Quiero contarles por qué decidimos habilitar infraestructura de inteligencia artificial de forma local, tanto para nosotros como para nuestros clientes, a pesar de que existen soluciones funcionales como ChatGPT, Gemini o incluso proveedores que ofrecen infraestructura y plataformas de IA en la nube.

En 2024 comenzamos a incursionar en lo que, a mi entender y tras mucho intentar comprender este ecosistema, es la forma más sencilla de aplicar IA en nuestros sistemas para resolver problemas de negocio: utilizar soluciones de IA disponibles en Internet mediante APIs. Pero pronto nos topamos con una barrera crítica: el tratamiento de la información sensible de nuestros clientes, especialmente aquella relacionada con seguridad. No podemos exponer esos datos a plataformas que no ofrecen transparencia sobre cómo procesan la información, ni cuándo podrían cambiar sus políticas de uso y privacidad.

Por esa razón, pusimos en pausa esos desarrollos y como no decirlo, decidimos, con optimismo, enfocamos en cómo implementar nuestra propia infraestructura de IA, para poder procesar datos confidenciales de forma segura, bajo nuestro control y con criterios locales.

Aquí comienza algo muy desafiante para mí, y que hasta el momento en que escribo esto aún no tengo del todo claro. Se trata de entrar a comprender ese “otro mundo”: el de la infraestructura para supercómputo, las plataformas y los aplicativos de inteligencia artificial. Un mundo que va mucho más allá de simples algoritmos bien desarrollados que algunos podrían apurar en llamar IA, pero que en realidad requiere una integración compleja de hardware, software, datos y propósito para que realmente podamos hablar de inteligencia artificial en sentido práctico.

Se dio coincidentemente que en este proceso, nace el concurso de Infraestructura de Supercómputo e Inteligencia Artificial de la Corfo, el que luego de un duro e intenso camino adjudicamos y que es un habilitante importante para mí, mi equipo, los asociados del proyecto y para todas las empresas de Chile que quieran entrar en este mundo de lleno.

Para ganar este concurso, fue clave entender contra quién competíamos para adjudicarlo y qué íbamos a ofrecer como factor diferenciador. Hablando desde mi experiencia personal, descubrí que la inteligencia artificial lleva décadas fuertemente ligada al mundo investigativo, científico y académico, basado en grandes centros de Supercómputo. Más aún, comprendí que muchos de los avances recientes que hoy vemos en empresas se construyen sobre la base de papers, herramientas y librerías de código abierto desarrolladas por verdaderos genios, que han dedicado su vida a crear modelos y soluciones de IA en distintas áreas del conocimiento humano.

Es impresionante ver la cantidad de tecnologías disponibles para quienes estén dispuestos a aprender y experimentar. Les nombro algunas para que “googleen o chatgepeteen”, desde Hugging Face, con miles de modelos preentrenados, principalmente de lenguaje, listos para usar o afinar, pasando por TensorFlow y PyTorch para desarrollar y entrenar modelos desde cero, hasta modelos como Stable Diffusion para generar imágenes, Whisper para transcribir audio, o experimentos como AutoGPT para automatizar tareas en lenguaje natural. Incluso empresas como NVIDIA ofrecen kits de desarrollo, modelos y servidores de inferencia gratuitos para experimentar, especialmente si cuentas con hardware compatible. Todo esto está al alcance de cualquier persona curiosa con una buena conexión a internet y ganas de aprender (Sólo que quizás necesites un tremendo supercomputador para ponerlo a correr en algunos casos).

Todo esto está ahí, disponible para ser aprendido, adaptado e implementado. Lo difícil no es que no exista la tecnología, sino saber unir las piezas y enfocarlas hacia una necesidad real, es decir saber ser un buen “integrador”.

Habiendo mencionado a NVIDIA, hay que nombrar a AMD (los dos grandes fabricantes de GPU del mundo), vale decir que las GPU fueron clave para que la inteligencia artificial despegara esta década. Existen herramientas de IA que corren en ambas plataformas, y otras que están fuertemente atadas al ecosistema de NVIDIA. Aunque en el futuro podríamos ver más compatibilidad cruzada, hoy aún estamos en una etapa en la que la IA se está masificando en su aplicación real, y en ese contexto, NVIDIA lleva la delantera con herramientas optimizadas para producción. AMD, en cambio, tiene una presencia más fuerte en entornos abiertos y de investigación, aunque está avanzando rápidamente para posicionarse también en escenarios aplicados, haciendo competencia a su rival comercial.

Mi cabeza tiende a simplificar, pues claro, cuando lo haces siempre se quedan cosas afuera, pero vamos con eso. Ya hablé de la IA tradicional con todos sus matices, y de la IA generativa, que es la que más nos ha sorprendido últimamente. Yo suelo clasificarla de forma práctica en dos grandes áreas: la IA visual y la IA centrada en el conocimiento y el lenguaje.

La IA visual, también conocida como visión computacional, es probablemente la que más tiempo lleva presente en nuestras vidas: reconocimiento facial, cámaras que detectan objetos, filtros en redes sociales, lectura automática de matrículas, entre otros. Es un tipo de IA con la que ya tenemos cierta familiaridad como usuarios comunes. En cambio, la IA de lenguaje y conocimiento (lo que técnicamente sería procesamiento de lenguaje natural (NLP)) y sistemas de razonamiento, es el campo donde estamos viendo la mayor exploración y disrupción en esta década. La posibilidad de interactuar con modelos que entienden y generan texto, responden preguntas, resumen documentos o incluso razonan con información, ha cambiado radicalmente la manera en que abordamos problemas de negocio. Ambas áreas (visión y lenguaje) están avanzando a gran velocidad, y lo interesante es que la frontera entre lo tradicional y lo generativo ya se está desdibujando. Hoy podemos tener modelos que no solo reconocen lo que hay en una imagen, sino que también la describen con texto, generan contenido visual desde lenguaje, o responden preguntas a partir de documentos visuales. La integración es total, y apenas estamos empezando a ver todo su potencial.

Entonces, al comprender qué se puede hacer realmente con inteligencia artificial, uno empieza a sentar las bases para entender qué tipo de problemas puede resolver. Y ese cambio es profundo: transforma la forma en que uno piensa los desafíos, desde cómo los define hasta cómo imagina posibles soluciones.

Aquí entra un punto que, para mí, es sumamente importante: para pensar en resolver algo con IA, se necesitan grandes volúmenes de datos, ya sean históricos o en tiempo real (Tanto visual o como en texto). Y no basta con tenerlos: es clave contar con un tratamiento adecuado de esa información, porque sin estructura ni calidad, los resultados serán pobres o simplemente inservibles.

Es aquí donde entran dos preguntas fundamentales: ¿cómo se gestionan esos datos y para quién? No todas las empresas manejan grandes volúmenes de datos en sus procesos, y muchas incluso teniendo datos, no saben gestionarlos bien. Este último punto es una barrera crítica para avanzar hacia soluciones de IA aplicada.

Sin embargo, así como el enorme volúmen de conocimiento disponible en internet permitió crear herramientas con un saber “universal” sorprendente al alcance de cualquiera, ya llevamos más de dos décadas formando directa e indirectamente a personas que entienden la importancia de manejar la información de forma estructurada para tomar decisiones. Esa maduración técnica y cultural está allanando el camino para que la IA, en su máxima expresión, empiece a crecer a pasos agigantados, tanto en manos de los usuarios como en los procesos de las empresas.

Volviendo al punto de la infraestructura de supercómputo para IA Aplicada que tenemos que implementar prontamente tras adjudicarnos el concurso de CORFO (csiaa.cl). Desde un enfoque comercial, y en ese proceso he descubierto que existen tres tipos de especialistas en este ecosistema:

  1. Los especialistas en IA aplicada (que son escasos).
  2. Los especialistas en conceptos de IA y herramientas (de estos hay muchos… quizás ahí me incluyo).
  3. Y los especialistas en infraestructura y plataformas para IA, (Escasos y en lo cual nos vamos a convertir con el CSIAA.)

 

Frente a esta realidad, lo que más observo es mucho concepto, pero todavía poca acción concreta. Y si queremos que la IA tenga impacto real en procesos productivos, esa ecuación debe cambiar cuanto antes.

En el camino de la infraestructura de supercómputo, me doy cuenta de algo importante: muchas aplicaciones actuales de IA en entornos empresariales no requieren GPU. Basta con una buena dosis de cómputo tradicional para resolver problemas reales. Luego, en menor escala, están aquellas que sí requieren GPU, y finalmente, un grupo aún más reducido de casos que necesitan múltiples GPUs, especialmente para entrenamiento e inferencia de modelos complejos.

Aquí es donde se vuelve clave entender dos conceptos fundamentales en IA:

Entrenamiento de modelos: exige grandes volúmenes de datos y mucha capacidad de cómputo, donde las GPUs son indispensables para que los procesos no se eternicen con grandes volumenes de información.

Inferencia: es el uso del modelo ya entrenado, y puede resolverse con CPU en algunos casos o requerir GPU si la carga es alta o el modelo muy complejo.

Es por aquí entra el propósito del CSIAA: vamos a disponibilizar una plataforma sobre infraestructura avanzada para que todas las empresas de Chile, sin importar su tamaño, puedan experimentar, aprender y poner en producción soluciones de IA aplicada sobre supercómputo y plataforma especializada en IA. Nuestra meta es fomentar la formación de más integradores, que puedan abordar desafíos que hoy requieren o no mucha GPU pero que resultan prohibitivos en conocimiento, costo y/o falta de acceso.

Queremos y debemos dejar de ser solo usuarios de chats de IA y pasar a ser creadores de soluciones empresariales con inteligencia artificial real, aplicada y productiva.

Para que Chile dé un salto real en inteligencia artificial, se requiere visión, coordinación y ejecución. Por eso, la existencia de dos futuros centros especializados en IA no solo es destacable, es esencial.

El futuro SCI-LABS, adjudicado transitoriamente por la Universidad de Chile y respaldado por más de 60 instituciones asociadas (https://ingenieria.uchile.cl/noticias/229135/u-de-chile-es-parte-de-laboratorio-que-potenciar-la-ia-y-supercomputo) , reúne un ecosistema de expertos investigadores y desarrolladores en diversas ramas de la IA. Este futuro centro tiene la capacidad de fortalecer el ecosistema científico e investigativo, que es justamente la base sobre la cual se ha construido todo lo que hoy conocemos como inteligencia artificial. Cuentan con el conocimiento y la experiencia para abordar problemáticas complejas desde una mirada de frontera.

Por otro lado, nuestro proyecto, el CSIAA, adjudicado transitoriamente por Tecnoera junto a 14 asociados (https://csiaa.cl), aportará infraestructura de supercómputo y plataformas como servicio especializadas en IA, diseñadas para que empresas e instituciones (de cualquier tamaño) puedan experimentar, desarrollar y poner en producción soluciones de IA aplicada. Lo haremos sobre una plataforma open source, escalable y preparada para atender a miles de usuarios simultáneos.

El CSIAA también será un puente para que el mundo académico transfiera conocimientos hacia el sector productivo, formando nuevos integradores y eliminando las barreras de acceso a tecnologías que hasta ahora parecían inalcanzables.

Este paso que está dando Chile es trascendental. Tener dos centros complementarios y especializados, uno orientado al desarrollo científico e investigativo y otro a la implementación práctica, es una innovación estructural. Si lo hacemos bien, puede posicionar a Chile como referente en inteligencia artificial a nivel regional e incluso global.

En Chile, recién ahora las grandes empresas están comenzando a dimensionar el impacto real que puede tener el desarrollo de inteligencia artificial aplicada en sus procesos. A pesar de los avances globales, a nivel local aún estamos en una etapa muy temprana de adopción.

Por otro lado, existen muy pocos integradores con la capacidad técnica y la experiencia necesaria para acompañar a las empresas en este camino. Esta falta de oferta especializada limita la velocidad de implementación y, en muchos casos, frustra los intentos de aplicar inteligencia artificial de forma práctica y sostenida. Sin duda, este es uno de los grandes desafíos que debemos enfrentar si queremos que la IA tenga impacto real en el mundo productivo.

Por eso, es urgente incentivar a más empresas a adoptar tecnologías basadas en IA aplicada, y al mismo tiempo, crear las condiciones para que surja un ecosistema de integradores más sólido, profesionalizado y diverso. Esto no solo ayudará a acelerar la transformación digital de la industria, sino que también permitirá democratizar el acceso a estas herramientas, rompiendo la barrera entre quienes “pueden pagar” por IA y quienes “pueden construir” soluciones desde sus propios desafíos.

Para cerrar este documento, quiero compartir una de las principales conclusiones que saqué durante este proceso del concurso. La academia (Que es la que tiene mayor conocimiento en IA) aún enfrenta importantes barreras para colaborar de forma efectiva con el mundo empresarial, especialmente con empresas de servicios como la nuestra. También es evidente que tiene dificultades para impulsar investigaciones e innovaciones que generen alto impacto más allá de su propio ecosistema.

Desde mi visión, ha llegado el momento de repensar cómo se articula la transferencia de conocimiento desde la academia hacia las empresas. Si bien existen esfuerzos valiosos, aún no se traducen en un impacto amplio, sostenido y transversal.

Lo mismo ocurre con la expectativa de que las empresas puedan dedicarse a la investigación de alto impacto: es una tarea compleja (En especial para las PYMES), que hoy no está al alcance de la mayoría.

Pero reconocer estas brechas no significa rendirse. Al contrario, es desde ese realismo que podemos construir nuevos modelos: más colaborativos, más prácticos y mejor adaptados a nuestra realidad. Modelos que permitan que el conocimiento en IA generado en los centros científicos y en la academia se convierta efectivamente en herramientas útiles para las empresas y para la sociedad.

Espero seguir compartiendo lo que vaya aprendiendo en este camino que recién comienza. Nos queda mucho por explorar, mucho por construir. Súmate inscribiendote en https://csiaa.cl/contacto-csiaa

¿Quieres explorar más?

Estos temas son nuestros preferidos y nos encantaría conversarlos contigo.