por Bernhard. En Moon of Alabama. Publicado originalmente el 24 de enero de 2025. Traducción de Comunidad Saker Latinoamérica
Si bien Bernhard menosprecia las regulaciones del gobierno chino que llevaron a un grupo de ingenieros chinos motivados a especular con las finanzas a tener que ponerse a desarrollar este revolucionario modelo de Inteligencia Artificial, y así menosprecia también la calidad del sistema (¡público!) de enseñanza e investigación chino en el que, como sabemos, algo tiene que ver la ideología socialista, y hablando de socialismo, también pasa por alto que capaz también tenga que ver esa ideología con la actitud de poner en auténtico código abierto a DeepSeek, no deja de estar bueno que Bernhard y otros lúcidos se vean obligados a reconocer lo que es bueno. Mientras tanto, los soretes (se sabe: es una grosería, pero a veces nobleza obliga) yanki-sionistas que la querían toda para ellos han sido humillados no sólo por el talento chino, sino fundamentalmente en su propio egoísmo impenitente. ¡Es que el egoísmo es la ideología más estúpida del mundo!!! Y en egoísmo, sabemos, los anglosionistas son campeones. Parafreaseando a “Niley”: ¡Viva el socialismo carajo!!
El revuelo en torno a la inteligencia artificial, el actual intento fallido de Estados Unidos de monopolizarla y la reciente respuesta de China son una lección de cómo innovar. También muestran que Estados Unidos está perdiendo la capacidad para hacerlo.
A mediados de 2023, cuando la agitación en torno a la inteligencia artificial llegó a los titulares, escribí:
La “inteligencia artificial” es (en su mayor parte) un reconocimiento de patrones glorificado
En la actualidad, existe cierta expectativa sobre una familia de grandes modelos de lenguaje como ChatGPT. El programa lee la entrada en lenguaje natural y la procesa para obtener como salida un contenido de lenguaje natural relacionado. Esto no es nuevo. La primera Entidad Computacional de Internet Lingüística Artificial (Alice: Artificial Linguistic Internet Computer Entity) fue desarrollada por Joseph Weizenbaum en el MIT a principios de los años 60. Tuve charlas divertidas con ELIZA en los años 80 en una terminal de mainframe. ChatGPT es un poco más ingenioso y sus resultados iterativos, es decir, las “conversaciones” que crea, bien podrían sorprender a algunas personas. Pero la expectativa en torno a él es injustificada.
…
En la actualidad, se estima que la exactitud fáctica de la salida de los mejores modelos de lenguaje grandes es del 80 %. Procesan símbolos y patrones, pero no comprenden lo que representan esos símbolos o patrones. No pueden resolver problemas matemáticos y lógicos, ni siquiera los más básicos.Existen aplicaciones específicas, como la traducción de idiomas escritos, en las que la IA o el reconocimiento de patrones tienen resultados sorprendentes, pero aún no se puede confiar en que cada palabra sea correcta. Los modelos pueden ser asistentes, pero siempre habrá que comprobar dos veces sus resultados.
En general, la precisión de los modelos de IA actuales sigue siendo demasiado baja como para permitirles decidir sobre cualquier situación del mundo real. Más datos o más potencia de cálculo no cambiarán eso. Si uno quiere superar sus limitaciones, necesitará encontrar algunas ideas fundamentalmente nuevas.
Pero el alboroto continuó. Un gran modelo de IA, ChatGPT, fue proporcionado por una organización sin fines de lucro, OpenAI. Pero su director ejecutivo, Sam Altman, pronto se dio cuenta de la gran cantidad de dólares que potencialmente podría ganar. Un año después de estar defendiendo la estructura sin fines de lucro de OpenAI, Altman hizo un un abordaje en la junta y convirtió la organización en una empresa privada:
OpenAI, el fabricante de ChatGPT, está trabajando en un plan para reestructurar su negocio principal y convertirlo en una corporación con fines de lucro que ya no estará controlada por su junta directiva sin fines de lucro, dijeron a Reuters personas familiarizadas con el asunto, en una medida que hará que la empresa sea más atractiva para los inversores.
…
El director ejecutivo Sam Altman también recibirá acciones por primera vez en la empresa con fines de lucro, que podría valer 150.000 millones de dólares después de la reestructuración, ya que también intenta eliminar el límite a los retornos para los inversores, agregaron las fuentes.
El modelo de lenguaje grande ChatGTP que proporcionó OpenAI era de código cerrado. Una caja negra, corriendo en la nube, por la que se podía pagar para chatear o que se podía usar para traducir, generar contenido o analizar ciertos problemas.
El entrenamiento y el mantenimiento de ChatGTP requerían grandes cantidades de potencia informática y dinero. Era algo caro, pero allí no había ninguna tecnología nueva. Los algoritmos que utilizaba eran bien conocidos y los datos de entrenamiento necesarios para “programarlo” eran contenido de Internet disponible de forma gratuita.
A pesar de todo el bombo publicitario sobre la IA, no es un secreto ni una tecnología nueva. Las barreras de entrada para cualquier competencia son bajas.
Esa es la razón por la que Yves en Naked Capitalism, señalando a Edward Zitron, preguntó: “¿Cómo sobrevive OpenAI?” No sobrevive. O tiene pocas posibilidades de hacerlo. Los debates en los EE. UU. nunca reconocieron esos hechos.
Los políticos pensaron en la IA como la próxima gran novedad que aumentaría el control estadounidense del mundo. Intentaron evitar cualquier competencia potencial al liderazgo que Estados Unidos creía tener en ese campo. Nvidia, el último gran fabricante de chips de EE. UU., perdió miles de millones cuando se le prohibió vender sus últimos modelos especializados en IA a China.
Hace dos días Trump anunció Stargate, una inversión de 500 mil millones de dólares en infraestructura de inteligencia artificial en Estados Unidos:
Tres importantes empresas tecnológicas anunciaron el martes que crearán una nueva empresa, llamada Stargate, para desarrollar infraestructura de inteligencia artificial en Estados Unidos.
El director ejecutivo de OpenAI, Sam Altman, el director ejecutivo de SoftBank, Masayoshi Son, y el presidente de Oracle, Larry Ellison, aparecieron en la Casa Blanca el martes por la tarde junto al presidente Donald Trump para anunciar la empresa, que Trump llamó el “proyecto de infraestructura de IA más grande de la historia”.
Las empresas invertirán 100 mil millones de dólares en el proyecto para comenzar, con planes de invertir hasta 500 mil millones de dólares en Stargate en los próximos años. Se espera que el proyecto cree 100.000 empleos en Estados Unidos, dijo Trump.
Stargate construirá “la infraestructura física y virtual para impulsar la próxima generación de IA”, incluidos centros de datos en todo el país, dijo Trump. Ellison dijo que el primer proyecto de datos del grupo, de 93 mil metros cuadrados, ya está en construcción en Texas.
El mismo día, pero con mucho menos ruido, una empresa china publicó otro modelo de IA:
Presentamos nuestros modelos de razonamiento de primera generación, DeepSeek-R1-Zero y DeepSeek-R1. DeepSeek-R1-Zero, un modelo entrenado mediante aprendizaje de refuerzo (RL. Reinforcement Learning) a gran escala sin ajuste fino supervisado (SFT. Supervised Fine-Tuning) como paso preliminar, demostró un rendimiento notable en el razonamiento. Con RL, DeepSeek-R1-Zero emergió naturalmente con numerosos comportamientos de razonamiento potentes e interesantes.
Los nuevos modelos DeepSeek tienen mejores puntos de referencia que cualquier otro modelo disponible. Utilizan una combinación diferente de técnicas, menos datos de entrenamiento y mucho menos poder de cómputo para lograrlo. Son baratos de usar y, a diferencia de OpenAI, son de auténtico código abierto.
Los controles de exportación de Estados Unidos sobre semiconductores avanzados tenían como objetivo entorpecer el progreso de la IA de China, pero es posible que hayan estimulado inadvertidamente la innovación. Al no poder depender únicamente del hardware más reciente, empresas como DeepSeek, con sede en Hangzhou, se han visto obligadas a encontrar soluciones creativas para hacer más con menos.
…
Este mes, DeepSeek lanzó su modelo R1, utilizando técnicas avanzadas como el aprendizaje de refuerzo puro para crear un modelo que no solo se encuentra entre los más formidables del mundo, sino que es completamente de código abierto, lo que lo pone a disposición de cualquier persona en el mundo para examinarlo, modificarlo y desarrollarlo.
…
El rendimiento de DeepSeek-R1 es comparable a los mejores modelos de razonamiento de OpenAI en una variedad de tareas, incluidas las matemáticas, la codificación y el razonamiento complejo. Por ejemplo, en el punto de referencia de matemáticas AIME 2024, DeepSeek-R1 obtuvo un 79,8% en comparación con el 79,2% de OpenAI-o1. En el benchmark MATH-500, DeepSeek-R1 alcanzó el 97,3% frente al 96,4% de o1. En las tareas de codificación, DeepSeek-R1 alcanzó el percentil 96,3 en Codeforces, mientras que o1 alcanzó el percentil 96,6, aunque es importante tener en cuenta que los resultados del benchmark pueden ser imperfectos y no deben sobreinterpretarse.Pero lo más destacable es que DeepSeek pudo lograr esto en gran medida a través de la innovación en lugar de depender de los últimos chips informáticos.
Nature también está impresionada:
Un gran modelo de lenguaje creado en China llamado DeepSeek-R1 está entusiasmando a los científicos como un rival asequible y abierto a los modelos de “raciocinio” como el o1 de OpenAI.
…
“Esto es salvaje y totalmente inesperado”, escribió en X Elvis Saravia, investigador de IA y cofundador de la firma de consultoría de IA con sede en el Reino Unido DAIR.AI.R1 se destaca por otra razón. DeepSeek, la empresa emergente de Hangzhou que creó el modelo, lo ha publicado como “abierto”, lo que significa que los investigadores pueden estudiar y desarrollar el algoritmo. Publicado bajo una licencia del MIT, el modelo se puede reutilizar libremente, pero no se considera completamente de código abierto, porque sus datos de entrenamiento no se han puesto a disposición.
“La apertura de DeepSeek es bastante notable”, dice Mario Krenn, líder del Laboratorio de Científicos Artificiales del Instituto Max Planck para la Ciencia de la Luz en Erlangen, Alemania. En comparación, o1 y otros modelos creados por OpenAI en San Francisco, California, incluido su último esfuerzo o3, son “esencialmente cajas negras”, dice.
Incluso los inversores de Internet a largo plazo, que lo han visto todo, están impresionados:
Marc Andreessen 🇺🇸 @pmarca – 9:19 UTC · 24 de enero de 2025
Deepseek R1 es uno de los avances más asombrosos e impresionantes que he visto nunca y, como código abierto, un gran regalo para el mundo. 🤖🫡
Nature añade:
DeepSeek no ha publicado el coste total de entrenamiento de R1, pero está cobrando a las personas que utilizan su interfaz alrededor de una trigésima parte de lo que cuesta ejecutar o1. La empresa también ha creado versiones mini “destiladas” de R1 para permitir que los investigadores con un poder de cómputo limitado jueguen con el modelo.
¡Eso sí que funciona!
Brian Roemmele @BrianRoemmele – 14:34 UTC · 23 de enero de 2025
¡Amigos, creo que lo hemos logrado!
Si se confirman las pruebas de la noche anterior, tendremos DeepSeek R1 de CÓDIGO ABIERTO funcionando a 200 tokens por segundo en una Raspberry Pi que NO esté conectada a INTERNET.
¡Una IA de vanguardia completa mejor que “OpenAI” de su propiedad total, en su bolsillo y de uso gratuito!
Pondré la imagen de Pi a disposición tan pronto como se completen todas las pruebas.
¡Simplemente la coloca en una Raspberry Pi y tendrá IA!
Este es solo el comienzo del poder que se genera cuando REALMENTE se abre el código fuente de un modelo de IA.
El último hardware de Raspberry Pi empieza en $50. El software es gratuito.
Esto es una llamada de atención para OpenAI:
Arnaud Bertrand @RnaudBertrand – 14:23 UTC · 21 de enero de 2025
La mayoría de las personas probablemente no se dan cuenta de lo mala noticia que es Deepseek de China para OpenAI.
Han ideado un modelo que iguala e incluso supera el último modelo o1 de OpenAI en varios puntos de referencia, y están cobrando solo el 3% del precio.
Es básicamente como si alguien hubiera lanzado un móvil a la par del iPhone pero lo vendiera por $30 en lugar de $1000. Es así de dramático.
Además, lo están lanzando en código abierto, por lo que incluso tienes la opción (que OpenAI no ofrece) de no usar su API en absoluto y ejecutar el modelo “gratis” tú mismo. …
La historia de fondo de DeepSeek también es asombrosa.
En 2007, tres ingenieros chinos se propusieron construir un fondo cuantitativo (de especulación financiera) utilizando IA. Contrataron a gente con hambre recién salida de las universidades. Su fondo High-Flyer tuvo cierto éxito, pero en los últimos años el gobierno chino comenzó a tomar medidas enérgicas contra la ingeniería financiera, el comercio cuantitativo y la especulación.
Con tiempo libre y potencia informática sin utilizar en su trastienda, los ingenieros comenzaron a construir los modelos DeepSeek. Los costes fueron mínimos. Mientras que OpenAI, Meta y Google gastaron miles de millones para construir sus IA, los costes de formación para los modelos DeepSeek publicados fueron de apenas 5 a 6 millones de dólares.
Henry Shi @henrythe9ths – 23:20 PM · 20 de enero de 2025
¿La lección?
A veces, tener menos significa innovar más. DeepSeek demuestra que no se necesitan:
- Miles de millones en financiación
- Cientos de doctorados
- Un pedigrí famoso
Solo mentes jóvenes brillantes, el coraje de pensar de manera diferente y la determinación de nunca darse por vencido.
Otra lección es que las mentes jóvenes brillantes no deben desperdiciarse para optimizar la especulación financiera, sino para crear cosas que se puedan usar.
DeepSeek demuestra que es imposible utilizar las barreras comerciales y tecnológicas para mantener la tecnología alejada de los competidores. Con recursos decentes, pueden simplemente innovar para evitarlas.
Ni siquiera miles de millones de dólares, vendedores ruidosos como Trump y estafadores que se autopromocionan como Sam Altman pueden competir con éxito con un grupo amplio de ingenieros bien capacitados.
Como señala un autor de Guancha (traducción automática):
En la guerra de ciencia y tecnología chino-estadounidense, la ventaja única de China proviene precisamente de la prohibición estadounidense. Se puede decir que nuestra fuerte voluntad de sobrevivir fue expulsada por Washington, y maximizar nuestros recursos limitados es el secreto para abrirse paso. En la historia, este tipo de historia no es nueva, es decir, los débiles prevalecen sobre los fuertes y los pequeños luchan contra los grandes.
El lado estadounidense caerá en un dilema al estilo de Vietnam: confiar demasiado en su propia ventaja absoluta, desperdiciando así muchos recursos y perdiéndose a sí mismo en el consumo interno.
¿Cuánto tiempo le tomará a Estados Unidos (re)aprender esa lección?
Be First to Comment