<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0"><channel><title><![CDATA[FP32: Deep Reasons]]></title><description><![CDATA[Reflexiones estratégicas respaldadas por datos duros sobre el futuro del cómputo y la inteligencia.]]></description><link>https://www.fp32.io/s/deep-reasons</link><image><url>https://substackcdn.com/image/fetch/$s_!bJnQ!,w_256,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fe5e89cf1-a498-4749-bc8d-4d93a8635388_1000x1000.png</url><title>FP32: Deep Reasons</title><link>https://www.fp32.io/s/deep-reasons</link></image><generator>Substack</generator><lastBuildDate>Sat, 09 May 2026 05:12:45 GMT</lastBuildDate><atom:link href="https://www.fp32.io/feed" rel="self" type="application/rss+xml"/><copyright><![CDATA[Raúl Alberto Pacheco Rodríguez]]></copyright><language><![CDATA[es]]></language><webMaster><![CDATA[fp32@substack.com]]></webMaster><itunes:owner><itunes:email><![CDATA[fp32@substack.com]]></itunes:email><itunes:name><![CDATA[Raul Pacheco]]></itunes:name></itunes:owner><itunes:author><![CDATA[Raul Pacheco]]></itunes:author><googleplay:owner><![CDATA[fp32@substack.com]]></googleplay:owner><googleplay:email><![CDATA[fp32@substack.com]]></googleplay:email><googleplay:author><![CDATA[Raul Pacheco]]></googleplay:author><itunes:block><![CDATA[Yes]]></itunes:block><item><title><![CDATA[Adiós a GPT-4, hola OpenClaw]]></title><description><![CDATA[Esta semana el panorama de la IA agentiva ha dado un cambio de fase.]]></description><link>https://www.fp32.io/p/adios-a-gpt-4-hola-openclaw</link><guid isPermaLink="false">https://www.fp32.io/p/adios-a-gpt-4-hola-openclaw</guid><dc:creator><![CDATA[Raul Pacheco]]></dc:creator><pubDate>Mon, 16 Feb 2026 10:05:21 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!6cpu!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>Esta semana el panorama de la IA agentiva ha dado un cambio de fase. Seguimos buscando la optimizaci&#243;n del silicio mientras presenciamos la nueva generaci&#243;n de frameworks que estandarizaran la delegaci&#243;n de tareas en el mundo real a escala masiva.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!6cpu!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!6cpu!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 424w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 848w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 1272w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!6cpu!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png" width="1456" height="1047" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1047,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:6164613,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/188114122?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!6cpu!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 424w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 848w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 1272w, https://substackcdn.com/image/fetch/$s_!6cpu!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F8c2bc3a7-897e-418d-81c5-6dcb5136865b_2225x1600.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Suscr&#237;bete para juntos destapar las cajas negras y descubrir lo que ocultan.</p><div><hr></div><h2>// Top News</h2><h2>OpenClaw &#8594; OpenAI + Fundaci&#243;n Open Source</h2><p>Hace pocas horas (15 de febrero), Sam Altman anunci&#243; que <strong>Peter Steinberger</strong>, creador del agente de IA viral OpenClaw (antes Clawdbot, luego Moltbot), se une a OpenAI para liderar &#8220;la pr&#243;xima generaci&#243;n de agentes personales&#8221;.</p><div class="pullquote"><p>OpenClaw se convierte en un proyecto open source independiente bajo una fundaci&#243;n respaldada por OpenAI.</p></div><h3>&#191;Qu&#233; es OpenClaw y por qu&#233; importa?</h3><p>OpenClaw es un framework de agentes aut&#243;nomos que permite a usuarios finales delegar tareas del mundo real (gestionar email, reservar vuelos, check-ins, interactuar con aseguradoras, incluso participar en redes sociales de agentes) mediante interfaces conversacionales como WhatsApp o Telegram. Los usuarios descargan el c&#243;digo, lo conectan a modelos como GPT-4 o Claude, y tienen un &#8220;asistente personal que realmente hace cosas&#8221;.</p><p>Lanzado en noviembre de 2025 ya ha superado las 100,000 estrellas en GitHub y se corono como uno de los repos de m&#225;s r&#225;pido crecimiento en la historia de la plataforma con 2 millones de usuarios en la primera semana de viralizaci&#243;n.</p><p>En su blog post del 15 de febrero, Steinberger explic&#243; que tuvo ofertas de Meta y OpenAI, y que aunque podr&#237;a haber convertido OpenClaw en &#8220;una gran empresa&#8221;, eligi&#243; OpenAI porque su objetivo es &#8220;cambiar el mundo, no construir una gran compa&#241;&#237;a&#8221;.</p><div class="pullquote"><p>&#8220;Lo que quiero es cambiar el mundo, no construir una gran empresa. Unirme a OpenAI es la forma m&#225;s r&#225;pida de llevar esto a todos.&#8221;&#8203;</p></div><blockquote><p>Para un CTO o director t&#233;cnico, esta es una se&#241;al clara: el talento top en agentic AI no est&#225; eligiendo el camino startup tradicional, sino posiciones estrat&#233;gicas dentro de los labs de frontera donde pueden acelerar deployment a escala masiva.</p></blockquote><h2>&#191;Qu&#233; cambia para los usuarios y desarrolladores?</h2><p>OpenClaw NO se cierra ni se vuelve propietario. En cambio, se convierte en un proyecto open source independiente gestionado por una fundaci&#243;n, con financiamiento y soporte t&#233;cnico continuo de OpenAI.</p><p>Sam Altman justific&#243; este modelo en su post de X</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!S_gE!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!S_gE!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 424w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 848w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 1272w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!S_gE!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png" width="590" height="362" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/cc9a4838-72fc-441a-b756-b63eca836bff_590x362.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:362,&quot;width&quot;:590,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:19877,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/188114122?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!S_gE!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 424w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 848w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 1272w, https://substackcdn.com/image/fetch/$s_!S_gE!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fcc9a4838-72fc-441a-b756-b63eca836bff_590x362.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><h3><code>Hidden Layer: </code>La Ingenier&#237;a de OpenClaw</h3><p>&#191;Por qu&#233; OpenClaw supera a los wrappers tradicionales? La clave est&#225; en su <strong>Runtime de Efectos Secundarios</strong>. No es solo orquestaci&#243;n; es persistencia.</p><pre><code>// ANATOM&#205;A DEL RUNTIME DE OPENCLAW

1. The Loop (Ingesti&#243;n):
   // Middleware que normaliza inputs sucios (WhatsApp/Telegram)
   // a esquemas JSON estrictos antes de tocar el LLM.
   Input -&gt; Structuring Layer -&gt; Context Window

2. Agnostic Inference:
   // Desacopla la l&#243;gica del proveedor.
   // Permite routing inteligente: GPT-4 para razonamiento complejo,
   // GLM-5 para tareas locales/privadas.

3. Cron Scheduler &amp; Persistence (La Joya):
   // El sistema no muere al cerrar la sesi&#243;n.
   // Gestiona colas as&#237;ncronas para tareas de larga duraci&#243;n.
   // Ej: "Revisar disponibilidad de vuelos cada martes a las 3 AM".

4. Sandboxed Execution:
   // El agente opera en un entorno confinado.
   // Mitiga alucinaciones destructivas (ej: `rm -rf` en tu email).</code></pre><blockquote><p>La diferencia clave vs competidores como LangChain o LlamaIndex es que OpenClaw est&#225; dise&#241;ado desde el inicio para end-users, no solo para developers: un usuario no t&#233;cnico puede instalar OpenClaw, conectar su cuenta de OpenAI/Anthropic, y tener un asistente funcional en minutos.</p></blockquote><div><hr></div><h2>Quantized News : {</h2><p><strong>HBM4: De la Spec al Silicio.</strong> Samsung ha roto el roadmap enviando las primeras unidades comerciales de <strong>HBM4 (11.7 Gbps, DRAM 1c)</strong>. Para el CTO, esto deja de ser una proyecci&#243;n: la cadena de suministro que alimentar&#225; a las GPUs y TPUs de finales de 2026 ya tiene f&#237;sica real.</p><div><hr></div><p><strong>Adi&#243;s a GPT-4 (Ahora si).</strong> El 13 de febrero se ejecut&#243; el apagado de la familia GPT-4 (4o, 4.1, mini). La consolidaci&#243;n hacia la arquitectura <strong>GPT-5.x</strong> elimina deuda t&#233;cnica y promete mayor <em>throughput</em>. Si tu stack depend&#237;a de versiones legacy, hoy tienes un problema.</p><div><hr></div><p><strong>Code Editor = Agent OS.</strong> Con Microsoft actualizando el AI Toolkit y Google lanzando su <strong>Developer Knowledge API</strong>, el consenso es t&#225;cito: el IDE ya no es un editor de texto, es el sistema operativo donde viven y operan tus agentes a trav&#233;s del protocolo MCP.</p><div><hr></div><h2>};</h2><h2>Top Repos &amp;&amp; Toolbox : {</h2><ul><li><p><strong>GitHub Copilot SDK (Preview):</strong> Expone el CLI de Copilot program&#225;ticamente. Ideal para pipelines de CI/CD que se &#8220;auto-corrigen&#8221; sin intervenci&#243;n humana.</p></li><li><p><strong>AI Toolkit for VS Code 0.30.0:</strong> Introduce depuraci&#243;n visual de <em>tool calls</em>. B&#225;sicamente, un &#8220;Wireshark para Agentes&#8221; que permite ver qu&#233; est&#225; pensando tu modelo en tiempo real.</p></li><li><p><strong>Google Developer Knowledge API:</strong> Permite inyectar documentaci&#243;n oficial <em>up-to-date</em> en el contexto. Se acab&#243; el <em>scraping</em> de documentaci&#243;n obsoleta para tus agentes.</p></li><li><p><strong>Omnara (YC S25):</strong> Entornos remotos ef&#237;meros para ejecutar Claude Code. La promesa: delegar el c&#243;mputo pesado a la nube, permitiendo desarrollo de IA desde dispositivos ligeros.</p></li></ul><h2>};</h2><h2>Top Papers : {</h2><p><strong>1. DecompSSM: Time-Series Forecasting (arXiv:2602.05389)</strong> Una alternativa s&#243;lida al Transformer para series temporales. Propone tres ramas de <strong>State Space Models (SSM)</strong> en paralelo para capturar tendencia, estacionalidad y residuales.</p><ul><li><p><em>Why it matters:</em> Supera al SOTA en benchmarks (Weather, ETTm2) abandonando la descomposici&#243;n manual. Es &#8220;End-to-End&#8221; real para datos temporales.</p></li></ul><p><strong>2. Mamba-360 Survey</strong> El mapa definitivo para entender cu&#225;ndo usar arquitecturas SSM (Mamba, Hyena) frente a Transformers.</p><ul><li><p><em>Takeaway:</em> Si tienes restricciones de memoria o contextos infinitos, los SSMs son el camino. Si necesitas razonamiento generalista masivo, el Transformer sigue siendo el rey.</p></li></ul><h2>};</h2><p>La convergencia entre el hardware <em>rack-scale</em> de NVIDIA y la orquestaci&#243;n federada de agentes (OpenClaw) define el nuevo <em>baseline</em> de la industria.</p><p>Mientras el mercado reacciona a la volatilidad de los anuncios, nosotros seguiremos monitoreando lo que importa: <strong>la eficiencia del c&#243;mputo y la robustez de la arquitectura.</strong></p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://fp32io.substack.com/p/adios-a-gpt-4-hola-openclaw/comments&quot;,&quot;text&quot;:&quot;Deja un comentario&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://fp32io.substack.com/p/adios-a-gpt-4-hola-openclaw/comments"><span>Deja un comentario</span></a></p><p>Hasta la pr&#243;xima compilaci&#243;n.</p><p>:: exit(0)</p>]]></content:encoded></item><item><title><![CDATA[¿Qué gana Musk al unir SpaceX y xAI?]]></title><description><![CDATA[En Memphis, Tennessee, en lo que una vez fue una planta de electrodom&#233;sticos de Electrolux, hoy vive Colossus: un cl&#250;ster de m&#225;s de cien mil GPUs H100, expandi&#233;ndose hacia el medio mill&#243;n de aceleradores y varios gigavatios de potencia instalada cuya misi&#243;n es entrenar a Grok y sus pr&#243;ximas versiones.]]></description><link>https://www.fp32.io/p/que-gana-musk-al-unir-spacex-y-xai</link><guid isPermaLink="false">https://www.fp32.io/p/que-gana-musk-al-unir-spacex-y-xai</guid><dc:creator><![CDATA[Raul Pacheco]]></dc:creator><pubDate>Sat, 07 Feb 2026 04:15:31 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!CI5i!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<p>En Memphis, Tennessee, en lo que una vez fue una planta de electrodom&#233;sticos de Electrolux, hoy vive Colossus: un cl&#250;ster de m&#225;s de cien mil GPUs H100, expandi&#233;ndose hacia el medio mill&#243;n de aceleradores y varios gigavatios de potencia instalada cuya misi&#243;n es entrenar a Grok y sus pr&#243;ximas versiones. Al mismo tiempo Elon Musk ejecuta su pr&#243;ximo movimiento estrat&#233;gico fusionando a SpaceX con xAI, consiguiendo as&#237; tener los mejores cohetes, sat&#233;lites, redes, supercomputadoras y modelos de IA bajo un mismo envoltorio.</p><p>La compra de xAI por parte de Space X no es un movimiento arbitrario. Esta uni&#243;n permite crear un sistema f&#237;sico&#8209;digital donde <strong>l</strong>a f&#237;sica dura de SpaceX alimenta los gradientes de xAI, y viceversa. Y con esto Musk puede avanzar con un plan mucho m&#225;s ambicioso y completamente futurista, desplegar hasta un mill&#243;n de sat&#233;lites&#8209;data center en &#243;rbita baja, alimentados por energ&#237;a solar y enlazados por l&#225;ser que se convertir&#225;n en los complementos y eventualmente sustitutos de Colossus para dar vida a las pr&#243;ximas generaciones de modelos de inteligencia artificial.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!CI5i!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!CI5i!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 424w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 848w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 1272w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!CI5i!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png" width="1024" height="861" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/629405d2-bafe-47dd-8877-68775d944c77_1024x861.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:861,&quot;width&quot;:1024,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:1389759,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/187147915?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!CI5i!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 424w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 848w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 1272w, https://substackcdn.com/image/fetch/$s_!CI5i!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F629405d2-bafe-47dd-8877-68775d944c77_1024x861.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>Suscr&#237;bete para que juntos destapemos las cajas negras y descubramos lo que ocultan.</p><div><hr></div><h2>Cuando los LLMs tocan la realidad</h2><p>La mayor&#237;a de los modelos fundacionales que usamos hoy &#8212;GPT&#8209;4, Claude, Gemini, el propio Grok 3/4&#8212; viven en el espacio abstracto de los tokens. Se entrenan sobre:</p><ul><li><p>Texto a escala planetaria (web, libros, c&#243;digo, papers).</p></li><li><p>Datos sint&#233;ticos generados por modelos m&#225;s peque&#241;os o versiones anteriores.</p></li><li><p>Feedback humano o de modelos cr&#237;ticos para alinear salidas.</p></li></ul><p>La &#8220;f&#237;sica&#8221; que aprenden est&#225; mediada: ecuaciones en LaTeX, gr&#225;ficos de papers, descripciones de maniobras, no fuerzas, temperaturas o vibraciones medidas in&#8209;situ. Un LLM sabe escribir la ecuaci&#243;n del drag o aproximar una &#243;rbita, pero no ha visto el stream crudo de datos que produce un cohete en ascenso supers&#243;nico o un sat&#233;lite en degradaci&#243;n orbital.</p><p>Al fusionar SpaceX y xAI, esa separaci&#243;n deja de ser estructural. Pasa de ser:</p><div class="pullquote"><p><strong>mundo f&#237;sico &#8594; herramientas internas de an&#225;lisis &#8594; resumen humano &#8594; texto &#8594; modelo de lenguaje</strong></p></div><p>a algo m&#225;s corto:</p><div class="pullquote"><p><strong>mundo f&#237;sico &#8594; pipeline de datos de SpaceX/Starlink &#8594; modelos especializados &#8594; Grok</strong></p></div><p>Las fuentes de datos que se vuelven accesibles (al menos potencialmente) son cualitativamente distintas de las que alimentan a cualquier otro actor de IA:</p><ul><li><p><strong>Telemetr&#237;a de cohetes y naves</strong>: Falcon 9, Falcon Heavy, Starship, Crew Dragon. Se&#241;ales GN&amp;C, presiones, temperaturas, vectores de aceleraci&#243;n, health de motores, estado del TPS, etc.</p></li><li><p><strong>Telemetr&#237;a de sat&#233;lites y red</strong>: constelaci&#243;n Starlink (y Starshield), con m&#233;tricas de SNR, beam&#8209;forming, interferencias, congesti&#243;n de enlaces, routing din&#225;mico sobre ISLs &#243;pticos.</p></li><li><p><strong>Tr&#225;fico de soporte y operaci&#243;n</strong>: logs de interacci&#243;n entre usuarios y soporte t&#233;cnico de Starlink y Tesla, que ya est&#225;n mediadas por Grok como primer nivel de atenci&#243;n.&#8203;&#8203;</p></li></ul><div class="pullquote"><p>Un punto clave reciente: Starlink actualiz&#243; en enero de 2026 su pol&#237;tica de privacidad para permitir usar datos de clientes &#8212;salvo opt&#8209;out&#8212; en el entrenamiento de modelos de IA, y medios como Reuters vinculan expl&#237;citamente este cambio a la fusi&#243;n con xAI.</p></div><blockquote><p><strong>&#128373;&#65039;&#8205;&#9794;&#65039; The Hidden Layer:</strong> Los datos de red y operaci&#243;n dejan de ser solo m&#233;tricas internas y se convierten en combustible expl&#237;cito para modelos. Por lo qu&#233; xAI es, hoy, el &#250;nico laboratorio de LLMs con acceso directo y continuo a flujos de datos de sistemas f&#237;sicos complejos bajo el mismo grupo societario: cohetes, sat&#233;lites, coches, robots y millones de enlaces satelitales. Ning&#250;n otro jugador de IA est&#225; tan cerca de entrenar modelos donde texto, c&#243;digo y telemetr&#237;a f&#237;sica compartan el mismo embedding.</p></blockquote><div><hr></div><h2>Anatom&#237;a de Colossus el cerebro terrestre de Grok</h2><p>Antes de conectar Grok con &#243;rbita, vale la pena diseccionar d&#243;nde vive hoy.</p><h2>Topolog&#237;a de hardware y red</h2><p>El supercomputador Colossus, descrito en material de Supermicro y en varios reportajes, tiene una arquitectura bastante cl&#225;sica de entrenamiento de LLMs, pero llevada al extremo:</p><ul><li><p><strong>GPUs</strong>:</p><ul><li><p>Fase inicial: ~100&#8239;000 GPUs NVIDIA H100 (HGX), montadas en servidores 4U de 8 GPUs.</p></li><li><p>Fases de expansi&#243;n: hacia 200&#8211;230&#8239;000 GPUs combinando H100 y Blackwell (GB200), con planes de llegar a ~555&#8239;000 GPUs y ~2&#8239;GW entre Colossus 1 y Colossus 2 en Memphis.</p></li></ul></li><li><p><strong>Nodos</strong>:</p><ul><li><p>Servidores 4U Supermicro &#8220;liquid&#8209;first&#8221;: 8&#215; H100 + 2&#215; CPUs x86, con cuatro switches PCIe Broadcom integrados y refrigeraci&#243;n l&#237;quida directa a chip.&#8203;</p></li><li><p>Grupos de 8 servidores + CDU redundante (Coolant Distribution Unit) formando racks de 64 GPUs, con manifold frontal para distribuci&#243;n de fluido.</p></li></ul></li><li><p><strong>Red</strong>:</p><ul><li><p>Cada servidor GPU: hasta 9 enlaces de 400&#8239;GbE (&#8776;3.6&#8239;Tbps) sobre NIC BlueField&#8209;3 y switches Spectrum&#8209;X, configurados en fabrics RDMA&#8209;over&#8209;Ethernet de muy baja latencia.</p></li><li><p>Red aparte a 400&#8239;GbE para tr&#225;fico de CPUs/servicios, separando plano de datos de entrenamiento del plano de control.</p></li></ul></li><li><p><strong>Almacenamiento</strong>:</p><ul><li><p>Nodos NVMe de alta densidad, mayoritariamente flash, apuntando a capacidades de exabytes para datasets mixtos (texto, c&#243;digo, im&#225;genes, v&#237;deo, logs&#8230;).</p></li></ul></li></ul><p>No hay magia ex&#243;tica: es un supercluster de LLM est&#225;ndar, pero empujado a l&#237;mites de densidad y potencia que pocas empresas pueden costear.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!3Ai1!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!3Ai1!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 424w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 848w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 1272w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!3Ai1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png" width="1456" height="870" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/a5905500-25de-458c-9019-c744da7bf8c6_1600x956.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:870,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:115270,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/187147915?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!3Ai1!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 424w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 848w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 1272w, https://substackcdn.com/image/fetch/$s_!3Ai1!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fa5905500-25de-458c-9019-c744da7bf8c6_1600x956.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><h2>Refrigeraci&#243;n l&#237;quida: ingenier&#237;a real vs mitolog&#237;a Raptor</h2><p>En redes ha circulado la narrativa de que el sistema de refrigeraci&#243;n de Colossus usa &#8220;tecnolog&#237;a derivada de los inyectores de Raptor&#8221;. T&#233;cnicamente suena sexy &#8212;flujo criog&#233;nico a trav&#233;s de microcanales, mixing optimizado, control extremo de gradientes t&#233;rmicos&#8212;, pero lo que s&#237; est&#225; documentado es m&#225;s convencional (aunque igual de impresionante):</p><ul><li><p><strong>Refrigeraci&#243;n directa a chip (D2C)</strong>:</p><ul><li><p>Bloques de refrigeraci&#243;n personalizados en cada GPU y CPU, con fluido (agua o mezcla) circulando a trav&#233;s de microcanales en contacto directo con el silicio.&#8203;</p></li><li><p>M&#243;dulos de red PCIe y switches con sus propios bloques, integrados en la misma loop l&#237;quida.</p></li></ul></li><li><p><strong>CDUs por rack</strong>:</p><ul><li><p>Cada rack incorpora una CDU redundante con bombas y alimentaci&#243;n hot&#8209;swap, intentando mantener flujo y presi&#243;n estables aunque una bomba falle.</p></li><li><p>Manifolds 1U frontales separan input/output (fr&#237;o/caliente) a cada servidor, con el cl&#225;sico c&#243;digo azul/rojo.</p></li></ul></li><li><p><strong>Rear&#8209;door heat exchangers</strong>:</p><ul><li><p>Como un radiador de coche a escala rack, en la parte trasera, para extraer el calor residual (DIMMs, PSUs, NICs) v&#237;a un loop secundario de agua que conecta con la planta de chillers.&#8203;</p></li></ul></li><li><p><strong>Infraestructura de sitio</strong>:</p><ul><li><p>Tuber&#237;as de gran di&#225;metro para agua fr&#237;a/caliente cruzando la nave industrial.</p></li><li><p>Integraci&#243;n con Tesla Megapacks para suavizar picos de carga durante los entrenos, reduciendo estr&#233;s sobre la red el&#233;ctrica local.&#8203;</p></li></ul></li></ul><blockquote><p><strong>&#128373;&#65039;&#8205;&#9794;&#65039; The Hidden Layer:</strong> En ninguna descripci&#243;n t&#233;cnica cre&#237;ble aparece el uso expl&#237;cito de componentes o dise&#241;os derivados de inyectores Raptor. La analog&#237;a conceptual &#8212;distribuir flujos uniformes en cientos/miles de microcanales bajo restricciones de presi&#243;n/cavitaci&#243;n&#8212; es v&#225;lida, pero, a d&#237;a de hoy, sigue siendo <strong>met&#225;fora, no arquitectura reutilizada</strong>.</p></blockquote><h2>Energ&#237;a, emisiones y agua, los limites terrestres</h2><p>Colossus no solo empuja l&#237;mites de c&#243;mputo; tambi&#233;n empuja los de energ&#237;a y medio ambiente:</p><ul><li><p>El sitio de Memphis se alimenta en parte con <strong>turbinas de gas propias</strong>, muchas instaladas antes de tener todos los permisos necesarios, lo que ha derivado en demandas de NAACP y grupos ambientales.</p></li><li><p>Los permisos concedidos permiten operar al menos 15 turbinas entre 2025 y 2030, con emisiones significativas de NOx, CO, PM y formaldeh&#237;do. Informes locales apuntan a decenas de toneladas/a&#241;o de contaminantes, preocupando a comunidades cercanas.</p></li><li><p>Con expansiones previstas hacia 1&#8211;2&#8239;GW, la planta requiere millones de litros de agua al d&#237;a para cooling; xAI ha prometido sistemas avanzados de recirculaci&#243;n, pero la escala sigue siendo masiva para una ciudad como Memphis.</p></li></ul><blockquote><p><strong>&#128373;&#65039;&#8205;&#9794;&#65039; The Hidden Layer:</strong>Este muro de energ&#237;a/agua/aceptaci&#243;n social en tierra es, en la pr&#225;ctica, uno de los motivadores m&#225;s fuertes detr&#225;s de la narrativa &#8220;llevemos los data centers al espacio&#8221;.</p></blockquote><div><hr></div><h2>Starlink y los orbital data centers</h2><p>La otra mitad del sistema es la red. SpaceX no solo tiene cohetes; tiene una de las mega&#8209;constelaciones de comunicaciones m&#225;s grandes de la historia.</p><h2>Edge computing en LEO (Low Earth Orbit): lo que ya existe</h2><p>Antes de ver los planes de SpaceX, conviene mirar el estado del arte en edge computing espacial:</p><ul><li><p>Misiones experimentales de ESA, NASA y JPL ya han volado <strong>modelos de deep learning on&#8209;board</strong>:</p><ul><li><p>Clasificaci&#243;n de im&#225;genes satelitales.</p></li><li><p>Segmentaci&#243;n de nubes e inundaciones.</p></li><li><p>Detecci&#243;n de anomal&#237;as en sensores.&#8203;</p></li></ul></li><li><p>Se han usado SoCs comerciales (Snapdragon), VPUs (Intel Movidius MyriadX) y, en algunos casos, FPGAs, logrando:</p><ul><li><p>Reducir dr&#225;sticamente el volumen de datos raw enviados a tierra (se bajan detecciones/eventos en lugar de im&#225;genes completas).</p></li><li><p>Acortar el tiempo de respuesta de horas/d&#237;as a minutos para ciertas alertas.&#8203;</p></li></ul></li></ul><p>En el mundo terrestre, la combinaci&#243;n <strong>Starlink + edge</strong> tambi&#233;n se est&#225; consolidando:</p><ul><li><p>Proyectos como <strong>Armada</strong> combinan antenas Starlink con clusters locales (GPU/CPU) para correr inferencia en campo (miner&#237;a, defensa, energ&#237;a, emergencias) con backhaul satelital, evitando depender de fibras fr&#225;giles.</p></li></ul><p>Lo importante: ya hay un patr&#243;n probado de <strong>&#8220;procesar donde ocurren los datos&#8221;</strong>, tanto en &#243;rbita como en el borde terrestre. SpaceX quiere escalarlo a muchos &#243;rdenes de magnitud m&#225;s.</p><h2>El sistema de Orbital AI Data Centers de SpaceX</h2><p>La solicitud de SpaceX ante la FCC para su &#8220;Orbital Data Center System&#8221; es sorprendentemente expl&#237;cita:</p><ul><li><p>Hasta <strong>1&#8239;000&#8239;000 sat&#233;lites</strong> en &#243;rbita baja, organizados en m&#250;ltiples shells (alturas diversas), con enlaces l&#225;ser inter&#8209;sat&#233;lite (ISLs) de alta capacidad.</p></li><li><p>Alimentaci&#243;n primaria por grandes <strong>arrays fotovoltaicos</strong> y bancos de bater&#237;as; cada sat&#233;lite ser&#237;a esencialmente un nodo de data center alimentado por el sol.</p></li><li><p>Funci&#243;n principal: <strong>ejecutar cargas de trabajo de IA</strong> (entrenamiento e inferencia) en &#243;rbita, reduciendo la necesidad de construir macro&#8209;data centers en tierra.</p></li><li><p>Integraci&#243;n expl&#237;cita con Starlink:</p><ul><li><p>Uso de la malla satelital existente para backhaul.</p></li><li><p>Procesamiento de datos en &#243;rbita antes de su env&#237;o a estaciones de tierra.</p></li><li><p>Posibilidad de enrutar resultados directamente a usuarios Starlink como parte del servicio.</p></li></ul></li></ul><p>Varios an&#225;lisis coinciden en que, en el corto plazo, SpaceX probar&#225; estos conceptos usando hardware Starlink V3 con cargas de inferencia relativamente ligeras, antes de lanzar sat&#233;lites dedicados m&#225;s masivos.</p><h2>&#191;Starlink como &#8220;GPU mesh&#8221; planetaria?</h2><p>Conviene matizar la narrativa de marketing:</p><ul><li><p><strong>Hoy</strong>:</p><ul><li><p>Starlink sirve como red de transporte y acceso.</p></li><li><p>Grok est&#225; integrado como chatbot de soporte para clientes de Starlink, pero toda la inferencia vive en data centers terrestres como Colossus.&#8203;</p></li><li><p>Los sat&#233;lites tienen CPUs/ASICs para RF, routing y control, pero no aceleradores de IA de prop&#243;sito general para tus workloads.</p></li></ul></li><li><p><strong>Ma&#241;ana (visi&#243;n declarada)</strong>:</p><ul><li><p>Una constelaci&#243;n mixta donde:</p><ul><li><p>Sat&#233;lites tipo Starlink siguen proporcionando conectividad.</p></li><li><p>Sat&#233;lites de data center dedicados (m&#225;s grandes, m&#225;s pesados, con radiadores descomunales) alojan racks de c&#243;mputo de IA.</p></li><li><p>Nodos edge en tierra (Armada, gateways, clientes enterprise) act&#250;an como &#8220;hojas&#8221; del &#225;rbol de c&#243;mputo.</p></li></ul></li></ul></li></ul><p>Dicho esto, desde un punto de vista de <strong>sistema distribuido</strong>, si asumes:</p><ul><li><p>Un mill&#243;n de nodos en LEO con capacidades heterog&#233;neas de c&#243;mputo.</p></li><li><p>Un fabric &#243;ptico mesh de baja latencia entre ellos.</p></li><li><p>Una red de estaciones y edge nodes alimentados por Starlink.</p></li></ul><p>lo que obtienes se parece mucho a una <strong>GPU mesh planetaria</strong>, aunque f&#237;sicamente est&#233; repartida entre &#243;rbita y superficie. Los principales retos aqu&#237; ser&#225;n la orquestaci&#243;n (qui&#233;n corre qu&#233;, d&#243;nde y cu&#225;ndo) y el problema termodin&#225;mico, del que casi nadie habla.</p><div><hr></div><p>Suscr&#237;bete para que juntos destapemos las cajas negras y descubramos lo que ocultan.</p><h2>&#191;C&#243;mo disipar megavatios en el vac&#237;o?</h2><p>La narrativa &#8220;en el espacio hace fr&#237;o, as&#237; que el cooling es gratis&#8221; pero esto es f&#237;sica de Twitter, no de ingenier&#237;a. Varios an&#225;lisis t&#233;cnicos independientes lo han se&#241;alado de forma tajante:</p><ul><li><p>En el vac&#237;o no hay <strong>convecci&#243;n</strong> ni <strong>conducci&#243;n</strong> con el entorno; la &#250;nica v&#237;a de disipaci&#243;n t&#233;rmica es la <strong>radiaci&#243;n</strong> (P&#8733;T4<em>P</em>&#8733;<em>T</em>4).</p></li><li><p>Operar chips a temperaturas t&#237;picas de data center (60&#8211;80&#8239;&#176;C) implica una potencia radiada por unidad de &#225;rea relativamente baja, por lo que se necesitan radiadores enormes:</p><ul><li><p>Estimaciones gruesas hablan de superficies del orden de cientos de metros a kil&#243;metros cuadrados para disipar varios MW por sat&#233;lite a temperaturas operables.</p></li></ul></li><li><p>Esto impacta:</p><ul><li><p><strong>Masa</strong>: radiadores grandes = sat&#233;lites pesados = m&#225;s coste de lanzamiento (aunque Starship abarate mucho &#8364;/kg).</p></li><li><p><strong>Complejidad mec&#225;nica</strong>: estructuras desplegables, articulaciones, control t&#233;rmico activo.</p></li><li><p><strong>Control de actitud</strong>: radiadores deben orientarse para evitar insolaci&#243;n directa y gestionar gradientes t&#233;rmicos.</p></li></ul></li></ul><p>Mientras tanto, en tierra, Colossus &#8220;solo&#8221; tiene que mover agua, usar chillers y torres de enfriamiento, y pelear con la comunidad y la factura de luz. Es duro, pero est&#225; en el dominio conocido de HVAC industrial.</p><p>La conclusi&#243;n aqu&#237; es importante: <strong>el cuello de botella de los orbital data centers no es el lanzamiento ni la energ&#237;a solar, sino la ingenier&#237;a t&#233;rmica en el vac&#237;o</strong>. Cualquier an&#225;lisis serio de viabilidad tiene que empezar por ah&#237;, no por el costo del kWh o el capex por GPU.</p><div><hr></div><h2>System design de la singularidad SpaceX&#8211;xAI</h2><p>Con los ingredientes sobre la mesa &#8212;Colossus, Starlink, orbital data centers, telemetr&#237;a f&#237;sica&#8212;, se puede bosquejar una arquitectura &#8220;Gravity &amp; Gradients&#8221; que razone m&#225;s all&#225; del titular.</p><h2>Capas del stack</h2><p>Piensa el sistema como un multi&#8209;tier improbable:</p><ol><li><p><strong>Capa de percepci&#243;n f&#237;sica</strong></p><ul><li><p><em>Cohetes y naves</em>: Falcon, Starship, Dragon.</p></li><li><p><em>Sat&#233;lites</em>: Starlink, Starshield, futuros sats de data center orbital.</p></li><li><p><em>Robots y veh&#237;culos</em>: Tesla, Optimus, infraestructura de tierra de SpaceX.</p></li></ul></li><li><p><strong>Capa de red y transporte</strong></p><ul><li><p>Malla satelital Starlink (ISLs &#243;pticos + RF a usuarios).</p></li><li><p>Enlaces l&#225;ser entre sats de data center.</p></li><li><p>Estaciones de tierra y nodos edge (Armada, gateways propios, centros de datos regionales).</p></li></ul></li><li><p><strong>Capa de c&#243;mputo</strong></p><ul><li><p><strong>Terrestre</strong>:</p><ul><li><p>Colossus (entrenamiento, fine&#8209;tuning masivo, orquestaci&#243;n).</p></li><li><p>Data centers regionales/edge enterprise.</p></li></ul></li><li><p><strong>Orbital</strong>:</p><ul><li><p>Nodos de data center dedicados (entrenamiento incremental, inferencia intensiva ligada a datos orbitales).</p></li><li><p>Capacidades de inferencia ligera en sats Starlink/Starshield.</p></li></ul></li></ul></li><li><p><strong>Capa de modelos</strong></p><ul><li><p>LLMs generalistas (Grok 4/5) como &#8220;cerebro de alto nivel&#8221;.</p></li><li><p>Modelos especializados:</p><ul><li><p>GN&amp;C asistido por ML.</p></li><li><p>Surrogates de CFD/FEA.</p></li><li><p>Modelos de red para optimizar capacidad y calidad de servicio.</p></li><li><p>Modelos de visi&#243;n y planificaci&#243;n para robots y veh&#237;culos.</p></li></ul></li></ul></li><li><p><strong>Capa de agentes y productos</strong></p><ul><li><p>Agentes de soporte (Starlink, Tesla).</p></li><li><p>Agentes de operations (gesti&#243;n aut&#243;noma de constelaciones, scheduling de lanzamientos, planificaci&#243;n log&#237;stica).</p></li><li><p>Interfaces humanas (X, apps, APIs corporativas).</p></li></ul></li></ol><h2>El loop de entrenamiento cerrado</h2><p>Dentro de esa arquitectura, emerge de forma casi inevitable un <strong>loop de datos&#8211;modelo&#8211;acci&#243;n</strong>. Simplificando mucho:</p><ol><li><p><strong>Dise&#241;o asistido por modelos</strong></p><ul><li><p>Ingenieros de SpaceX usan herramientas potenciadas por xAI para dise&#241;ar nuevas iteraciones de Raptor, estructuras de Starship, sat&#233;lites de data center.</p></li><li><p>Bajo el cap&#243;, hay surrogates ML entrenados sobre:</p><ul><li><p>Simulaciones CFD/FEA existentes.</p></li><li><p>Datos de vuelo hist&#243;ricos.</p></li></ul></li></ul></li><li><p><strong>Fabricaci&#243;n y despliegue</strong></p><ul><li><p>Tesla y las f&#225;bricas de SpaceX manufacturan esos dise&#241;os optimizados.</p></li><li><p>Starship los lleva al espacio: sat&#233;lites, m&#243;dulos de data center orbital, nuevos segmentos de la constelaci&#243;n.</p></li></ul></li><li><p><strong>Operaci&#243;n y observabilidad</strong></p><ul><li><p>Los sistema operan:</p><ul><li><p>Cohetes vuelan y aterrizan.</p></li><li><p>Sats rut&#233;an tr&#225;fico y corren modelos.</p></li><li><p>Robots construyen infraestructura, coches circulan.</p></li></ul></li><li><p>Todo genera telemetr&#237;a continua y logs de eventos (incluyendo fallos, casi&#8209;fallos, anomal&#237;as raras).</p></li></ul></li><li><p><strong>Ingesta y entrenamiento</strong></p><ul><li><p>xAI ingiere esas corrientes de datos:</p><ul><li><p>Actualiza surrogates con datos de vuelo reales (continual learning, domain adaptation).</p></li><li><p>Re&#8209;entrena modelos de control, diagn&#243;stico y optimizaci&#243;n.</p></li><li><p>Alimenta a Grok con corpora enriquecidos de explicaciones t&#233;cnicas, incident reports, documentaci&#243;n y res&#250;menes generados.</p></li></ul></li></ul></li><li><p><strong>Nueva iteraci&#243;n de dise&#241;o y operaci&#243;n</strong></p><ul><li><p>Los modelos mejorados se usan para:</p><ul><li><p>Dise&#241;o de la siguiente iteraci&#243;n de hardware.</p></li><li><p>Ajuste de par&#225;metros operativos (perfiles de vuelo, scheduling de sat&#233;lites, asignaci&#243;n de cargas de trabajo de IA).</p></li></ul></li><li><p>El ciclo se repite.</p></li></ul></li></ol><p>Este patr&#243;n es una extrapolaci&#243;n del bucle Tesla FSD (datos de flota &#8594; modelo &#8594; actualizaci&#243;n OTA &#8594; nuevos datos de flota) a la escala de una infraestructura aeroespacial completa.</p><h2>&#191;D&#243;nde corren los modelos?</h2><p>En este sistema, el &#8220;d&#243;nde&#8221; de los gradientes importa:</p><ul><li><p><strong>Entrenamiento base</strong>:</p><ul><li><p>Lo m&#225;s probable es que el pretraining de modelos grandes (Grok N) siga ocurriendo en tierra, en Colossus y otros sites: la complejidad de cooling, mantenimiento y actualizaci&#243;n de hardware es mucho m&#225;s manejable.</p></li></ul></li><li><p><strong>Entrenamiento incremental / fine&#8209;tuning cercano a la fuente</strong>:</p><ul><li><p>Para tareas muy ligadas a datos orbitales (ej. detecci&#243;n de patrones atmosf&#233;ricos, din&#225;mica de basura espacial), tiene sentido entrenar o ajustar modelos directamente en nodos orbitales, usando datos que nunca bajan a tierra.</p></li></ul></li><li><p><strong>Inferencia</strong>:</p><ul><li><p>Inferencia de baja latencia y dependiente de posici&#243;n/tiempo (p. ej. reaccionar a fen&#243;menos locales, planificar observaciones) puede vivir en edge orbital.</p></li><li><p>Inferencia que interact&#250;a con humanos (chat, copilots) probablemente seguir&#225; sirvi&#233;ndose desde tierra, por cercan&#237;a a los usuarios y mejor integraci&#243;n con sistemas legacy.</p></li></ul></li></ul><p>Orquestar esto es un problema de scheduling distribuido bajo constraints f&#237;sicos: ventanas de visibilidad, latencias variables, energ&#237;a limitada, cooling por radiaci&#243;n. Es un playground perfecto para agentes de alto nivel (Grok/LLMs) coordinando swarms de modelos especializados.</p><div><hr></div><h2>&#191;Por qu&#233; este stack es dif&#237;cil de imitar?</h2><p>Visto en conjunto, SpaceX&#8211;xAI no es solo &#8220;otra empresa de IA con muchos GPUs&#8221; ni &#8220;otra compa&#241;&#237;a espacial con cohetes reutilizables&#8221;. Es un intento deliberado de construir un circuito cerrado entre materia, energ&#237;a, informaci&#243;n y optimizaci&#243;n:</p><ul><li><p><strong>Gravedad</strong>:</p><ul><li><p>Starship, cohetes, sat&#233;lites y robots est&#225;n anclados a leyes f&#237;sicas que no negocian: ecuaciones de Navier&#8209;Stokes, termodin&#225;mica, mec&#225;nica orbital.</p></li><li><p>SpaceX controla la cadena log&#237;stica de acceder al espacio y desplegar masa a bajo coste.</p></li></ul></li><li><p><strong>Gradientes</strong>:</p><ul><li><p>Colossus y sus sucesores son m&#225;quinas dedicadas a minimizar funciones de p&#233;rdida en espacios de par&#225;metros gigantes.</p></li><li><p>xAI, a diferencia de otros labs, puede definir p&#233;rdidas donde aparecen directamente magnitudes f&#237;sicas medibles: probabilidad de fallo de un Raptor, throughput de Starlink bajo tormenta geomagn&#233;tica, tiempo medio de reparaci&#243;n de una falla de usuario.</p></li></ul></li><li><p><strong>Datos</strong>:</p><ul><li><p>X, Tesla, Starlink, SpaceX y, en el futuro, robots Optimus aportan streams de datos multimodales (texto, v&#237;deo, telemetr&#237;a, audio, sensores estructurales) bajo la misma galaxia corporativa.</p></li><li><p>La actualizaci&#243;n de pol&#237;ticas de privacidad de Starlink muestra claramente la intenci&#243;n de aprovechar esa ventaja.</p></li></ul></li></ul><p>Lo que hace singular este stack no es un solo componente, sino la <strong>superposici&#243;n de gravedad y gradientes</strong>:</p><blockquote><p><strong>&#128373;&#65039;&#8205;&#9794;&#65039; The Hidden Layer:</strong> Donde otros laboratorios entrenan modelos sobre un mundo discretizado en palabras e im&#225;genes, SpaceX&#8211;xAI aspira a entrenarlos sobre un mundo donde cada token puede estar anclado a una fuerza, una &#243;rbita, una vibraci&#243;n, una ca&#237;da de tensi&#243;n o un microfallo en un enlace l&#225;ser.</p></blockquote><p>Replicar esto exige algo m&#225;s que dinero:</p><ul><li><p>Lanzadores reutilizables de gran capacidad.</p></li><li><p>Mega&#8209;constelaciones operativas.</p></li><li><p>Infraestructura de superc&#243;mputo de escala nacional.</p></li><li><p>Productos de consumo que generen datos y flujo de caja (coches, robots, conectividad, plataformas sociales).</p></li></ul><p>Por eso, nos guste o no, la fusi&#243;n SpaceX&#8211;xAI es algo m&#225;s que un titular de &#8220;Musk arma su propio OpenAI&#8221;.</p><div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!SFgm!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!SFgm!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 424w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 848w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 1272w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!SFgm!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png" width="1456" height="1043" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/fd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:null,&quot;imageSize&quot;:null,&quot;height&quot;:1043,&quot;width&quot;:1456,&quot;resizeWidth&quot;:null,&quot;bytes&quot;:242092,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:true,&quot;topImage&quot;:false,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/187147915?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:null,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!SFgm!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 424w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 848w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 1272w, https://substackcdn.com/image/fetch/$s_!SFgm!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffd1c132b-082c-41e3-9f2e-51558d11c8e7_1600x1146.png 1456w" sizes="100vw" loading="lazy"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><div class="pullquote"><p>Es el primer intento serio de hacer que la ingenier&#237;a aeroespacial, la infraestructura de red y la IA compartan no solo un balance general, sino tambi&#233;n un mismo espacio de representaci&#243;n.</p></div><p>Y ah&#237; es donde todo cobra sentido: Starship necesita un cerebro y Grok, por primera vez, tiene un cuerpo que sentir, pilotar y optimizar.</p><p>&#191;Crees que la disipaci&#243;n t&#233;rmica en el vac&#237;o ser&#225; el muro con el que choquen, o es un problema soluble?</p><p>Me gustar&#237;a saber tu opini&#243;n, no olvides comentar o enviar un correo con tu opini&#243;n o contarme que otros temas te gustar&#237;a que aborde.</p><p class="button-wrapper" data-attrs="{&quot;url&quot;:&quot;https://fp32io.substack.com/p/que-gana-musk-al-unir-spacex-y-xai/comments&quot;,&quot;text&quot;:&quot;Deja un comentario&quot;,&quot;action&quot;:null,&quot;class&quot;:null}" data-component-name="ButtonCreateButton"><a class="button primary" href="https://fp32io.substack.com/p/que-gana-musk-al-unir-spacex-y-xai/comments"><span>Deja un comentario</span></a></p><pre><code>&#128218; Glosario fp32

Cooling Radiativo ($P \propto T^4$): En el vac&#237;o no hay aire para llevarse el calor (convecci&#243;n). La &#250;nica forma de enfriar algo es emitir luz infrarroja. Es mucho menos eficiente y requiere paneles gigantes.

Backhaul: La conexi&#243;n &#8220;trasera&#8221; que une la red de acceso (tu antena Starlink) con el n&#250;cleo de internet. Aqu&#237;, el backhaul ser&#237;a l&#225;ser entre sat&#233;lites.

Surrogate Models: Modelos de IA ligeros que aprenden a imitar simulaciones f&#237;sicas complejas (como CFD) para dar resultados en milisegundos en lugar de horas.</code></pre>]]></content:encoded></item><item><title><![CDATA[Hello World, This is fp32]]></title><description><![CDATA[&#191;Cu&#225;ntos newsletters, blogs, hilos y videos sobre IA has visto en las &#250;ltimas 24 horas?]]></description><link>https://www.fp32.io/p/coming-soon</link><guid isPermaLink="false">https://www.fp32.io/p/coming-soon</guid><dc:creator><![CDATA[Raul Pacheco]]></dc:creator><pubDate>Fri, 06 Feb 2026 07:43:28 GMT</pubDate><enclosure url="https://substackcdn.com/image/fetch/$s_!nsdR!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png" length="0" type="image/jpeg"/><content:encoded><![CDATA[<div class="captioned-image-container"><figure><a class="image-link image2 is-viewable-img" target="_blank" href="https://substackcdn.com/image/fetch/$s_!nsdR!,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png" data-component-name="Image2ToDOM"><div class="image2-inset"><picture><source type="image/webp" srcset="https://substackcdn.com/image/fetch/$s_!nsdR!,w_424,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 424w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_848,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 848w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_1272,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 1272w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 1456w" sizes="100vw"><img src="https://substackcdn.com/image/fetch/$s_!nsdR!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png" width="728" height="312.43333333333334" data-attrs="{&quot;src&quot;:&quot;https://substack-post-media.s3.amazonaws.com/public/images/785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png&quot;,&quot;srcNoWatermark&quot;:null,&quot;fullscreen&quot;:false,&quot;imageSize&quot;:&quot;normal&quot;,&quot;height&quot;:515,&quot;width&quot;:1200,&quot;resizeWidth&quot;:728,&quot;bytes&quot;:352974,&quot;alt&quot;:null,&quot;title&quot;:null,&quot;type&quot;:&quot;image/png&quot;,&quot;href&quot;:null,&quot;belowTheFold&quot;:false,&quot;topImage&quot;:true,&quot;internalRedirect&quot;:&quot;https://fp32research.substack.com/i/187063079?img=https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Ffc20189c-54a8-4578-9163-5ef75f9977a2_1200x628.png&quot;,&quot;isProcessing&quot;:false,&quot;align&quot;:&quot;center&quot;,&quot;offset&quot;:false}" class="sizing-normal" alt="" srcset="https://substackcdn.com/image/fetch/$s_!nsdR!,w_424,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 424w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_848,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 848w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_1272,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 1272w, https://substackcdn.com/image/fetch/$s_!nsdR!,w_1456,c_limit,f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F785c85b5-b67c-4acd-9c4b-54d63932fcb7_1200x515.png 1456w" sizes="100vw" fetchpriority="high"></picture><div class="image-link-expand"><div class="pencraft pc-display-flex pc-gap-8 pc-reset"><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container restack-image"><svg role="img" width="20" height="20" viewBox="0 0 20 20" fill="none" stroke-width="1.5" stroke="var(--color-fg-primary)" stroke-linecap="round" stroke-linejoin="round" xmlns="http://www.w3.org/2000/svg"><g><title></title><path d="M2.53001 7.81595C3.49179 4.73911 6.43281 2.5 9.91173 2.5C13.1684 2.5 15.9537 4.46214 17.0852 7.23684L17.6179 8.67647M17.6179 8.67647L18.5002 4.26471M17.6179 8.67647L13.6473 6.91176M17.4995 12.1841C16.5378 15.2609 13.5967 17.5 10.1178 17.5C6.86118 17.5 4.07589 15.5379 2.94432 12.7632L2.41165 11.3235M2.41165 11.3235L1.5293 15.7353M2.41165 11.3235L6.38224 13.0882"></path></g></svg></button><button tabindex="0" type="button" class="pencraft pc-reset pencraft icon-container view-image"><svg xmlns="http://www.w3.org/2000/svg" width="20" height="20" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="lucide lucide-maximize2 lucide-maximize-2"><polyline points="15 3 21 3 21 9"></polyline><polyline points="9 21 3 21 3 15"></polyline><line x1="21" x2="14" y1="3" y2="10"></line><line x1="3" x2="10" y1="21" y2="14"></line></svg></button></div></div></div></a></figure></div><p>&#191;Cu&#225;ntos newsletters, blogs, hilos y videos sobre IA has visto en las &#250;ltimas 24 horas? Cientos, &#191;verdad? Y de todos ellos, &#191;Cu&#225;ntos puedes decir con seguridad que te ser&#225;n &#250;tiles en 5 a&#241;os?</p><p>Como t&#250;, estoy constantemente expuesto al ruido. Noticias ef&#237;meras, herramientas m&#225;gicas y posts con consejos que francamente no necesito. Si bien algunos son entretenidos, la realidad es que la mayor&#237;a son una p&#233;rdida de tiempo para un profesional.</p><p>Durante mi doctorado, not&#233; lo escaso que es el contenido profundo en nuestro idioma. Mientras Silicon Valley avanza a la velocidad de la luz, aqu&#237; nos inundamos de tutoriales superficiales sobre c&#243;mo hacer que ChatGPT piense por nosotros.</p><p>En <strong><a href="https://www.creadoraumentado.com/">Creador Aumentado</a> </strong>(mi otra newsletter), mi misi&#243;n es elevarnos de observadores a Makers. Pero la evoluci&#243;n es inevitable. El siguiente paso l&#243;gico es la ingenier&#237;a profunda.</p><p><strong>Este es el camino de fp32:</strong></p><ul><li><p><strong>C&#243;digo sobre Hype:</strong> No nos importa si una IA &#8220;parece consciente&#8221;. Nos importa su arquitectura y su funcionamiento interno.</p></li><li><p><strong>Profundidad sobre Velocidad:</strong> Preferimos llegar tarde con un an&#225;lisis preciso, que llegar primero con un informe irrelevante.</p></li><li><p><strong>Abrir la Caja Negra:</strong> No nos conformamos con tecnolog&#237;as &#8220;m&#225;gicas&#8221;; queremos ver las matem&#225;ticas que las hacen respirar.</p></li></ul><p><strong>&#191;Qu&#233; puedes esperar aqu&#237;?</strong> Este no es un bolet&#237;n para turistas. Es para verdaderos creadores, aquellos que heredamos la curiosidad innata de la cultura hacker.</p><ul><li><p>&#128467;&#65039; <strong>Lunes:</strong> Lo esencial de la semana sin relleno.</p></li><li><p>&#128467;&#65039; <strong>Viernes:</strong> Investigaci&#243;n dura, desgloses de papers y gu&#237;as de implementaci&#243;n t&#233;cnica (ideales para destripar c&#243;digo el fin de semana).</p></li></ul><p>&#161;Bienvenido a fp32!</p><p>Suscr&#237;bete para que juntos destapemos las cajas negras y descubramos lo que ocultan.</p>]]></content:encoded></item></channel></rss>