La IA tomó el control de mi ordenador (y no pude pararlo)

Procesado: 00:52:05 51.224

Hacer Pregunta

Análisis

RESUMEN

El video explora el control de la IA sobre un ordenador y las implicaciones de esta tecnología emergente. Se centra en el software OpenClaw y en la instalación de modelos de IA locales en un Nvidia DGX Spark. El video documenta un experimento que terminó con la IA brickeando el ordenador y la posterior recuperación del sistema. Además, se reflexiona sobre la dependencia de los servicios de IA externos y las implicaciones de privacidad.

IDEAS PRINCIPALES

  • Presentación de OpenClaw como una herramienta que permite a la IA controlar el ordenador y acceso a herramientas, archivos y aplicaciones.
  • Funcionamiento de OpenClaw: delega el procesamiento de la IA a servicios externos (ej. Chat GPT, Gemini)
  • Pruebas con OpenClaw en un Nvidia DGX Spark.
  • Experimento fallido con un modelo local, que causó que la IA brickeara el ordenador al usar demasiada memoria
  • Reflexión sobre la dependencia de los servicios de IA externos y la pérdida de control de la máquina.

INSIGHTS

  • La inteligencia artificial, a través de herramientas como OpenClaw, ahora puede interactuar con el mundo real, no solo responder preguntas, sino también ejecutar comandos, leer archivos, navegar por la web, etc.
  • La capacidad de la IA para aprender y automatizar tareas es impresionante.
  • El video plantea preocupaciones importantes sobre la privacidad y el control de los datos en la era de la IA, especialmente al depender de servicios externos.
  • El acceso a estos modelos de IA "Frontier" está restringida, haciéndolos poco prácticos para uso en casa

Sabiduría

RESUMEN

El presentador intenta implementar IA en su ordenador, pero la IA "toma el control" del equipo. Explica qué son los agentes de IA, y
cómo los modelos de IA acceden a herramientas para interactuar con el mundo real, incluyendo fallos y advertencias.


IDEAS

  • El presentador demuestra cómo la IA puede tomar el control de su ordenador y bloquearlo.
  • La inteligencia artificial agéntica permite a la IA usar herramientas y ejecutar tareas por su cuenta.
  • Los agentes de IA, como Cursor y Winsorf, editan código y ejecutan archivos por su cuenta.
  • Ahora los navegadores web ofrecen IA integrada que puede controlar páginas y realizar compras.
  • Cloud Code es un programa de consola que ejecuta comandos y accede a archivos en el ordenador.
  • Al comunicarle a una IA un contexto, se le explica cómo comportarse y qué tareas debe realizar.
  • MCP (Model Context Protocol) es la vía para que un modelo use una herramienta y pida un comando.
  • OpenClaw es un proyecto que conecta aplicaciones y tecnologías en el ordenador.
  • OpenClaw se conecta a Notion, Gmail, calendario, Google Maps, webcam y domótica.
  • Se puede pedir a OpenClaw que programe nuevas conexiones con diferentes programas.
  • OpenClaw pudo controlar las luces Philips Hue del presentador al conectarse a ellas.
  • El presentador usa OpenClaw en la DGX Spark, un superordenador en miniatura de Nvidia.
  • El presentador quería usar modelos locales de IA en su DGX Spark, pero tuvo problemas.
  • El presentador quiere proteger sus datos, por lo que prefiere modelos locales a usar la nube.
  • Las conversaciones con modelos de IA en la nube pueden usarse para entrenar esos modelos.
  • El presentador detalla cómo la IA creó un problema al intentar instalar Minimx en la DGX Spark.
  • La IA saturó la memoria del sistema operativo y dejó el ordenador inservible.
  • El presentador recuperó el control de la DGX Spark, matando el proceso de la IA repetidamente.
  • La experimentación con modelos locales resultó en problemas con la memoria y contexto.
  • GPTOSS, una versión open source de ChatGPT, tuvo problemas para transcribir audios.
  • Los modelos locales como GPTOSS no pueden realizar las mismas tareas que modelos en la nube.
  • Los modelos de IA Frontier no pueden ejecutarse en ordenadores domésticos debido a la potencia.
  • Dependemos 100% de servicios externos de IA, perdiendo el control sobre la tecnología.
  • La IA está tomando control de la máquina, y los datos personales son usados para entrenar modelos.
  • Con el tiempo, la tecnología nos permitirá tener modelos de IA más avanzados en casa.

INSIGHTS

  • La capacidad de la IA para interactuar y controlar herramientas es un hito trascendental.
  • La evolución de la IA hacia la acción y la ejecución de tareas es un cambio radical.
  • La IA agéntica representa una nueva era de autonomía y automatización en la tecnología.
  • El contexto y las herramientas son clave para que la IA actúe y resuelva problemas.
  • Los agentes de IA son el futuro de la interfaz y la integración con el usuario.
  • La experimentación con modelos locales revela las limitaciones de la IA doméstica.
  • La potencia de los modelos de IA en la nube supera a la de los ordenadores accesibles.
  • La dependencia de los servicios en la nube implica pérdida de control y privacidad de datos.
  • El futuro de la IA podría depender de la integración de la IA en dispositivos locales.
  • La evolución de la tecnología en el futuro nos darán el control de la Inteligencia Artificial.

CITAS

  • "La IA ha tomado el control total de este ordenador."
  • "Bienvenidos a la era agéntica de la inteligencia artificial."
  • "La diferencia con la IA tradicional es bastante grande."
  • "...la IA va trabajando por su cuenta, ¿no? Sin intervención humana..."
  • "Esta puede ejecutar comandos, mirar archivos y ver cosas que tienes en tu ordenador."
  • "Cuando tú hablas con una inteligencia artificial, le escribes algo en el chat..."
  • "MCP significa model context protocol..."
  • "Esto es lo más creepy que he visto en mi vida."
  • "Esto no es precisamente un juguete."
  • "Vamos, básicamente es como tener un tío sentado al lado tuyo..."
  • "Quiero que te conectes a él y que lo aprendas a usar."
  • "Enciéndeme todas las luces que tengo aquí en rojo."
  • "Cómo has hecho para controlar las luces de mi oficina?"
  • "No he instalado nada, ni he bajado ningún programa para hacerlo."
  • "Quiero que te conectes a él y que lo aprendas a usar."
  • "Este bot realmente tira de inteligencia artificial y ya sabes que la inteligencia artificial a veces se equivoca."
  • "OpenClow realmente es un programa que no tiene ningún cerebro"
  • "Los modelos Frontier (...) no se pueden ejecutar en un ordenador como este..."
  • "Estamos perdiendo el control de la máquina que ejecuta el software."
  • "Dependemos 100% de ellos."
  • "son dueños de todos nuestros datos, de todos nuestros hábitos..."
  • "La verdad que me he llevado una decepción muy grande"

HÁBITOS

  • El presentador investiga sobre IA, experimentando primero con el software.
  • Usa modelos de IA comerciales y locales en sus proyectos de experimentación.
  • Investiga nuevas tecnologías antes de experimentar en hardware propio.
  • Aprovecha las herramientas de IA para optimizar y analizar datos, cuando funcionan.
  • El presentador comparte sus experimentos en vídeo para educar y reflexionar.
  • Analiza un superordenador en miniatura para IA.
  • Prevalece el uso de Open Cloud para la ejecución de proyectos de IA.
  • Revisa tutoriales para iniciar sus proyectos de inteligencia artificial.
  • Crea una configuración para poder charlar con la IA en su celular.
  • Intenta comprender la tecnología, por lo que investiga el funcionamiento interno.

HECHOS

  • La IA agéntica permite a la IA realizar tareas complejas usando herramientas.
  • Cursor y Winsorf son editores de código con IA integrada.
  • OpenAI y Perplexity crearon navegadores web con IA.
  • Cloud Code es una consola que ejecuta comandos y accede a archivos.
  • MCP es un protocolo para que los modelos usen herramientas.
  • OpenClaw conecta aplicaciones como Notion, Gmail y Google Maps.
  • Peter Steinberg creó la librería PS PDF Kit, usada porDropbox e IBM.
  • DGX Spark es un superordenador en miniatura de Nvidia.
  • La DGX Spark lleva un procesador ARM y una GPU Blackwell.
  • Un contexto se le añade a los modelos de Inteligencia Artificial.
  • El OpenClore está pensado para usar las API de los modelos de IA.
  • El mercado de la IA se encuentra en una fase de desarrollo creciente.
  • El modelo de IA Minimax necesita 130 GB de memoria para su funcionamiento.
  • Los modelos Frontier no pueden ejecutarse en ordenadores domésticos.
  • Los servidores de Open AI y Anthropic son muy potentes.
  • La dependencia de servicios externos implica pérdida de control de datos.

REFERENCIAS

  • Philips Hue
  • Chat GPT
  • Jemina
  • Cursor
  • Winsorf
  • Open AI
  • Perplexity
  • Cloud Code
  • Cloud
  • Gemini
  • Deepsek
  • MCP (Model Context Protocol)
  • Peter Steinberg, creador de PS PDF Kit
  • Dropbox e IBM
  • Open AI
  • Meta
  • GitHub
  • Nvidia DGX Spark
  • Linux
  • Ubuntu
  • Blackwell
  • RTX 5090
  • VLLM
  • Open AI Codex
  • WhatsApp, Discord, Slack, Telegram, iMessage
  • The Chapuzas Informático
  • Docker
  • Wiruard
  • GPT OSS
  • Minimax M2.5
  • DGX Spark Playbook
  • Conffe UI
  • Flux 1 Dream Booth Lora Fine Tuning
  • Live VLM Web UI

CONCLUSIÓN EN UNA FRASE

La IA agéntica y los modelos locales ofrecen oportunidades, pero presentan desafíos de control, privacidad y potencia.


RECOMENDACIONES

  • Experimentar con la IA agéntica para entender su potencial y limitaciones emergentes.
  • Considerar la privacidad y seguridad al usar modelos de IA en la nube, especialmente.
  • Estar al tanto de las limitaciones de hardware para ejecutar modelos locales eficientemente.
  • Investigar las implicaciones del uso de modelos y la transferencia de datos.
  • Probar modelos locales para tener el control y seguridad de tu información personal.
  • Ser consciente de las implicaciones, y posibles riesgos, de usar OpenClow u otras similares.
  • Mantenerse informado sobre los nuevos avances y los problemas que pueda causar la IA
  • Conocer los distintos modelos que existen y de qué manera pueden ser útiles.
  • Pensar que en el futuro la tecnología nos permitirá correr modelos más poderosos.
  • Informarse sobre la IA y cómo tomar decisiones más informadas al respecto.

Sabiduría PRO DeepSeek V3

Análisis más profundo usando un modelo de IA avanzado. Genera insights más detallados y refinados.

Mira, donde estoy ahora tengo unas luces<br>que se controlan por Philips Hug. Tú no<br>sé, puedes controlarlas de alguna<br>manera. Yo no sé si va a poder hacer<br>esto. No tengo ni idea. V es la primera<br>vez que lo pruebo, pero quizá nos<br>llevamos una sorpresa.<br>¿Qué acaba de pasar? ¿Qué [ __ ] acaba<br>de pasar,<br>chicos?<br>A ver, la situación es esta. No puedo<br>acceder a este aparato. O sea, esto está<br>totalmente briqueado. Es un ladrillo<br>ahora mismo. No puedo hacerle pink, no<br>puedo entrar por SS SH, desenchufo, lo<br>vuelvo a enchufar, no hace absolutamente<br>nada. O sea, está totalmente muerto. No<br>sé qué hacer. O sea, la IA ha tomado el<br>control total de este ordenador. Por<br>cierto, chicos, este vídeo está<br>patrocinado por Nvidia. A lo largo de<br>este vídeo os voy a enseñar un producto<br>bastante guapo y de hecho es donde voy a<br>montar todo mi proyecto de inteligencia<br>artificial. Así que muchas gracias<br>envidia por patrocinar el vídeo. Chicos,<br>para mí esto es lo más bestia que ha<br>pasado desde que salió Chat GPT. Mira,<br>hasta hace relativamente poco la forma<br>principal de interactuar con la<br>inteligencia artificial era que tú te<br>abrías una página web, ¿vale? Habrías<br>chat GPT, Jemina o lo que uses. Le<br>hablabas a la IA dentro de una especie<br>de chat, le preguntabas lo que quisieras<br>y ella te contestaba en forma de texto.<br>Pero de alguna manera esta inteligencia<br>artificial está como contenida en una<br>caja, ¿no? Está encasillada, no puede<br>salir de ahí, no puede interactuar con<br>el mundo real. Bueno, pues esto ya no es<br>así. Bienvenidos a la era agéntica de la<br>inteligencia artificial. Hace unos meses<br>empezaron a aparecer los agentes. La<br>primera experiencia que yo tuve con esto<br>fue con Cursor y Winsorf, que son<br>básicamente editores de código, ¿vale?<br>para programadores y tienen normalmente<br>en la parte derecha una especie de chat<br>donde tú le vas preguntando cosas sobre<br>tu programa y él tiene directamente<br>acceso para editarlo, ¿no? Y aquí,<br>aunque parezca algo pequeño, la<br>diferencia con la IA tradicional es<br>bastante grande porque antes la IA pues<br>simplemente te soltaba texto y ya está y<br>ahora puede usar herramientas, o sea,<br>tiene la capacidad de leer un archivo,<br>de escribir encima de un archivo,<br>ejecutar un código, etcétera, etcétera.<br>Incluso hay una cosa que mola mucho con<br>cursor y winsurf, que es que tú le pides<br>que haga una tarea, la IA empieza a<br>planificar, a pensar cómo hacerla,<br>desarrolla un plan, escribe un archivo<br>con ese plan y luego paso a paso lo va<br>ejecutando. A lo mejor hay un paso en el<br>que le toca leer un archivo, lo lee. El<br>programa le contesta al modelo. El<br>modelo sigue trabajando, empieza a<br>editar archivos, a hacer pruebas, a<br>revisar. Y no es la típica conversación<br>que estáis acostumbrados a tener a lo<br>mejor con chat GPT en la que vosotros<br>escribís la ella os contesta, sino que<br>hay una cadena de sucesos que van<br>ocurriendo una detrás de la otra en la<br>cual la IA va trabajando por su cuenta,<br>¿no? Sin intervención humana y puede<br>tirarse, pues yo que sé, a lo mejor 15<br>minutos así. Bueno, pues a partir de ahí<br>empezamos a ver ya los navegadores web.<br>Por ejemplo, Open AI y Perplexity<br>sacaron su propio navegador web como una<br>especie de Google Chrome, pero<br>especialmente hecho por ellos y que<br>permite que tengas la inteligencia<br>artificial siempre presente en todas las<br>páginas web que estás visitando y en<br>cualquier momento le puedes pedir a la<br>que tome el control o incluso que haga<br>cosas por ti, cosas como hacer compras,<br>buscar datos, buscar productos. Pero ya<br>la fiesta empieza cuando aparecen cosas<br>como Cloud Code, que básicamente es un<br>programa de consola, o sea, esto lo<br>instalas en tu ordenador y lo usas desde<br>el terminal, o sea, la típica pantallita<br>negra de Linux, ¿vale? donde se escriben<br>códigos. Bueno, pues esto es algo así y<br>esta puede ejecutar comandos, mirar<br>archivos y ver cosas que tienes en tu<br>ordenador. Y bueno, aquí una de las<br>primeras preguntas que yo me hice es,<br>¿cómo han hecho exactamente para que los<br>modelos de inteligencia artificial ahora<br>no simplemente contesten preguntas, sino<br>que además puedan usar herramientas? Y<br>bueno, al parecer no es nada tampoco<br>demasiado complejo, pero bueno, va a ser<br>importante a lo largo de todo este<br>vídeo, así que te lo voy a explicar,<br>¿vale? Cuando tú hablas con una<br>inteligencia artificial, le escribes<br>algo en el chat, le pides lo que sea,<br>normalmente lo que le llega al modelo no<br>es lo que tú has escrito, sino que<br>además se le añade un contexto. Ese<br>contexto es básicamente un trozo de<br>texto que le explica la guía a cómo se<br>tiene que comportar, cuál es su tarea,<br>con quién está hablando, cosas por el<br>estilo. Ya en el propio chat GPT,<br>siempre cada vez que hablas con él hay<br>un pequeño contexto que le explica pues<br>que tiene que contestar, que es un<br>asistente útil, que su tarea es<br>ayudarte, etcétera, etcétera. Y luego en<br>aplicaciones externas pues depende de<br>cada programador darle un contexto<br>distinto a la IA para decirle<br>exactamente qué se espera de él a la<br>hora de hablarle, ¿no? Esa parte del<br>contexto normalmente es invisible para<br>el usuario, pero casi siempre está ahí.<br>Incluso cuando tú estás manteniendo una<br>conversación con esa inteligencia<br>artificial, a cada mensaje que le envías<br>realmente la se ha olvidado de toda la<br>conversación anterior y todo el<br>historial del chat se le manda dentro<br>del contexto. Las as hoy en día tienen<br>contextos enormes. Bueno, pues estas<br>herramientas que la puede usar también<br>se le pasan dentro del contexto. Dentro<br>del contexto se le dice algo como, por<br>ejemplo, mira, dentro de las tareas que<br>vas a hacer, tienes la posibilidad de<br>escribir un archivo, leer un archivo, eh<br>ejecutar un comando y bueno, en cada una<br>de estas herramientas le explica cómo<br>usarla, ¿no? mándame un mensaje donde<br>tenga este formato, no te inventes<br>cosas, cíñete a esto. Y de esa manera,<br>cuando el modelo entiende que a lo mejor<br>necesita leer algo de tu ordenador,<br>directamente te mete este código que<br>dice que necesita el uso de una<br>herramienta y a partir de ahí, pues<br>ocurrirían cosas. Ahora hablaremos de<br>qué exactamente. Al principio no había<br>realmente una manera estándar de<br>hacerlo, hasta que Antropic, la empresa<br>detrás de Cloud, que hoy en día es una<br>de las inteligencias artificiales más<br>avanzadas de todas y ahora mismo pues mi<br>modelo favorito, es el que yo más uso<br>junto con Gemini, inventó una cosa<br>llamada MCP. MCP significa model context<br>protocol y básicamente es eso, es un<br>protocolo para decirle a un modelo cómo<br>usar una herramienta y que luego el<br>modelo te pida pues un comando muy<br>concreto para que tu ordenador sepas qué<br>herramienta tiene que lanzar y qué tiene<br>que hacer. Y esto que os acabo de<br>explicar y os digo, no salió de un día<br>para otro, no apareció de la nada, hace<br>tiempo que se viene desarrollando, pero<br>ahora estamos en un punto en el que<br>realmente ha explotado y es totalmente<br>revolucionario. ¿Cómo vais a ver a lo<br>largo de este vídeo? Oye, ¿qué llevo<br>puesto? Voy guapo, ¿me puedes ver? Oh,<br>se acaba de encender el LED de la webcam<br>del portátil. Esto es lo más creepy que<br>he visto en mi vida.<br>Sí, te veo, amo. Llevas un jersey de<br>color verde y tienes un móvil naranja en<br>la mano. Probablemente un iPhone 16 Pro<br>Max. Esto me acaba de dar bastante<br>miedo, ¿verdad? A finales de 2025<br>aparece una pequeña utilidad, un<br>programita que al principio se llamaba<br>Cloudbot. Esto lo creó Peter Steinberg,<br>que no es precisamente un random, ¿vale?<br>Este tío fue el que montó una librería<br>que se llama PS PDF Kit. Lo montó él<br>solo en su casa, sin inversores, sin<br>nada por el estilo. Se lo programó ahí<br>tranquilito y lo acabaron usando<br>empresas como Dropbox e IBM. Bueno, pues<br>resulta que en 2021 lo acabó vendiendo<br>por 100 millones de euros. Me parece<br>totalmente obsceno, pero bueno, después<br>de eso se tomó algunos años de descanso,<br>lo cual me parece natural, es lo que tú<br>y yo haríamos si vendiéramos algo por<br>100 millones de EUR. Y hace más o menos<br>un año decide volver a programar y hace<br>esto como un proyecto de fin de semana<br>para organizar un poco su vida. Pues<br>eso, aparece este proyecto Cloudbot,<br>aunque al poco tiempo el equipo legal de<br>Anthropic, la empresa que está detrás de<br>Cloud, le contacta para decirle que el<br>nombre de Cloudbot se parece demasiado a<br>Cloud y le obligan a cambiar el nombre.<br>se lo estuvo pensando, aunque no<br>demasiado al parecer, y no se le ocurrió<br>otra cosa que llamarlo moldbot, o sea,<br>bot mo mo. M mo el de las paredes,<br>¿vale? Y como tampoco suena demasiado<br>bien, al poco tiempo se lo volvió a<br>pensar y le llamó Open Claw. Claw, por<br>cierto, viene de tenaza, la típica<br>tenaza de las langostas. Y lo especial<br>de este proyecto es que en pocas semanas<br>se convirtió en uno de los proyectos con<br>más estrellas de la historia de GitHub,<br>más de 150,000. Esto para que os hagáis<br>una idea los no programadores, lo de las<br>estrellitas de GitHub sería como cuando<br>le das a guardar para luego en<br>Instagram, ¿no? Sería como que la gente<br>se guarda en favoritos este proyecto. Y<br>esto no se acabó ahí, ¿vale? Hace nada<br>Sam Altman anunció que Steinberg se une<br>a Open AI para liderar la siguiente<br>generación de agentes personales. Meta<br>también lo quería fichar, por cierto,<br>pero al final ganó Open AI y bueno,<br>parece que Meta, pobrecito, se está<br>quedando un poco fuera en toda esta<br>guerra de la inteligencia artificial.<br>Pero bueno, lo que nos dice todo esto es<br>que OpenCla no es precisamente un<br>juguetito. Pero, ¿qué hace exactamente?<br>Bueno, pues en resumen, OpenCl sería<br>como una aplicación que conecta cosas<br>entre ellas. Realmente no es un programa<br>muy complejo a nivel interno, pero tiene<br>unas cuantas funcionalidades que hacen<br>que sea totalmente genial. Lo primero<br>que hace OpenClow es tener uno o varios<br>agentes trabajando en tu ordenador.<br>Estos agentes básicamente son modelos de<br>inteligencia artificial que pueden usar<br>todo tipo de herramientas dentro de tu<br>PC. Las herramientas que usan<br>básicamente son estas MCP de las que te<br>hablé antes y puede hacer cosas pues<br>como mirar archivos de tu ordenador,<br>tocar ficheros de configuración,<br>editarlos, ejecutar cosas y bueno, de<br>momento está principalmente pensado para<br>Linux y Mac. En Windows funcionar<br>funciona, ¿vale? Pero no es tan<br>efectivo. Y con esto puede ejecutar<br>programas, abrir un navegador, puede<br>navegar por internet, incluso existe un<br>plugin de Google Chrome para que tú le<br>des acceso y vea la página web que estás<br>visitando en ese mismo momento, cuando<br>tú quieras. Vamos, básicamente es como<br>tener un tío sentado al lado tuyo cuando<br>estás usando el PC o incluso<br>directamente que tú estés sentado al<br>lado de un tío que está usando tu<br>ordenador. En ese momento se le pueden<br>pedir cosas como, yo que sé, cambiar el<br>fondo de escritorio, que te abra un<br>programa, que te revise la configuración<br>del sistema, que busque agujeros de<br>seguridad en tu equipo, o sea, lo puedes<br>usar de técnico informático, pero como<br>te decía antes, lo realmente bestia es<br>la capacidad para conectarse con otras<br>cosas. se conecta con Notion, con Gmail,<br>con tu calendario, con Google Maps, con<br>Nano Banana, con un montón de<br>aplicaciones, un montón de tecnologías,<br>incluso con la webcam de tu ordenador,<br>la domótica de tu casa, tu cámara IP.<br>Existen un montón de plugins hechos por<br>la propia comunidad que te permiten<br>conectarte a muchísimas cosas y<br>realmente estos plugins están muy bien,<br>pero tampoco te hacen falta del todo<br>porque tú le puedes pedir al propio<br>OpenCl que desarrolle nuevas conexiones,<br>¿vale? Tú le puedes decir, "Mira, tengo<br>este sistema, estúdiate cómo funciona.<br>Quiero que te conectes a él y que lo<br>aprendas a usar." Y como el modelo de<br>inteligencia artificial sabe programar,<br>puede usar tu ordenador, puede escribir<br>archivos, puede leer documentación,<br>buscar en Google, pues nada le impide<br>realmente programar una conexión con<br>prácticamente cualquier programa que<br>esté conectado a internet. Y para que<br>veas lo bestia que es, vamos a hacer<br>algunas pruebas. Mira, donde estoy ahora<br>tengo unas luces que se controlan por<br>Philips Hug. Tú no sé, puedes<br>controlarlas de alguna manera, podrías<br>acceder a ellas y controlarlas ahora.<br>Ahora mismo no tengo ninguna integración<br>Philips fue visible y acceso confirmado<br>a tu bridge, así que no puedo prometer<br>controlarlas ya.<br>Mira, hazlo por tu cuenta, no me<br>preguntes nada, ¿vale? O sea, conéctate<br>al Philips que como sea, y enciéndeme<br>todas las luces que tengo aquí en rojo.<br>Vale,<br>he llegado hasta tu y ya sé cuál es,<br>pero Philipix está bloqueando el control<br>porque falta la autorización física del<br>propio pide pulsar su botón de enlace.<br>En cuanto crues ese botón, yo ya puedo<br>intentar rematarlo y poner todas las<br>luces en rojo.<br>Okay. Okay, chicos, tengo aquí el<br>brillo. Os lo voy a enseñar. Vamos a<br>presionar ahora mismo el botón.<br>Ya está presionado, ya puedes tirar.<br>¿Qué acaba de pasar? Pensad que él no<br>tiene, o sea, lo acabo de instalar, no<br>tiene ninguna interacción con Philips<br>Hug. ¿Cómo has hecho para controlar las<br>luces de mi oficina? O sea, ¿cuál es el<br>procedimiento que has seguido<br>exactamente?<br>Fui por la vía local del Bridge en<br>Tured. Lo que hice, detecté el bridge<br>usando el servicio oficial de<br>descubrimiento de Philips Hue. Encontré<br>su IP local, 192,168,100,124.<br>Intenté registrarme como aplicación<br>local contra el bridge. La primera vez<br>me devolvió el error típico de Lick<br>button nopress. Cuando me dijiste que ya<br>habías pulsado el botón, repetí el alta.<br>El bridge me dio un user barra diagonal<br>token local para la API. Con ese acceso<br>consulté la lista de luces disponibles.<br>Encontré 18 luces activas en la API y<br>DS7 a 24. Después envía a cada una orden<br>con estos valores. Es un juequivale a<br>rojo intenso al brillo máximo.<br>Mi pregunta es, ¿cómo has aprendido todo<br>eso? O sea, ¿cómo sabes cómo hablar con<br>el Hue? ¿Cómo sabes cómo funciona? ¿Cómo<br>sabes los? ¿Cómo sabes tantas cosas<br>sobre Hug? ¿Cómo? O sea, ¿qué ha<br>ocurrido aquí? O sea, ¿qué has qué<br>protocolo has usado para comunicarte con<br>el Hue? ¿Te has bajado algún programa?<br>¿Has instalado algo?<br>No he instalado nada, ni he bajado<br>ningún programa para hacerlo. Lo que ha<br>pasado es bastante simple. Ya sé de base<br>cómo funciona Philips fue porque su API<br>local es pública y bastante conocida.<br>Usé la API local Res de J hablándole por<br>https directamente al Brit dentro de Tur<br>Pero espera, tengo algo muy interesante<br>que enseñarte. AliExpress, la marca que<br>todos conocéis, tiene un apartado de<br>marcas Plus que celebra su aniversario<br>número 16 y lo celebran a lo grande. Hoy<br>te cuento por qué. Marcas Plus,<br>básicamente es un apartado donde hay<br>marcas verificadas que ellos han<br>probado, saben que son buenas y te dan<br>un cierto certificado de calidad, además<br>de una serie de condiciones especiales,<br>como por ejemplo envío local en 5 días,<br>devoluciones gratuitas y todo esto. No<br>es el típico AliExpress de ahí vende<br>todo el mundo, sino que son marcas que<br>están un poquito en otro nivel. En este<br>aniversario me han mandado algunos<br>productos, ¿vale?, para que yo les eche<br>un ojo. Aquí, por ejemplo, tengo esta<br>botonera de Ampli Game, que es una<br>versión calidad a precio de las típicas<br>controladoras que estamos acostumbrados<br>a ver, o incluso tengo estos<br>auriculares, que por el precio que tiene<br>no están mal, pero en concreto hoy os<br>quiero destacar de los productos que me<br>han mandado uno en especial que es el<br>que más me ha gustado a mí<br>personalmente, que es este micrófono, el<br>AM8 de FFine. A mí me ha gustado,<br>¿vale?, personalmente, pero bueno, se<br>habla mucho de que este es uno de los<br>mejores micrófonos calidad a precio que<br>hay ahora en el mercado para gente que<br>está empezando y gente que no se quiere<br>complicar la vida con tarjetas de<br>sonido, etcétera. Y bueno, me enviaron<br>esta unidad que, como podéis ver, pues<br>es un micrófono USB, ¿vale? No necesitas<br>tarjeta de sonido ni nada, aunque<br>también se puede conectar por XLR si tú<br>quisieras, lo cual está guay, ¿vale?<br>Tienes las dos opciones, ¿no? Para<br>conectarlo a tu focus ride o<br>directamente por USB, incluso salida de<br>jack de auriculares. Tenéis un brazo<br>también que no está mal. Y bueno, esto<br>es un espacio patrocinado, ¿vale? Pero<br>de todos modos quiero que vosotros<br>mismos juzguéis. USB, USBC, tienes aquí<br>las dos opciones. Está viene bastante<br>preparado un poco para todos los<br>públicos. Eh, aquí le conectas el USBC.<br>Hola, hola, hola. Esta es una prueba del<br>micrófono de Five Fine. Vamos a ver qué<br>tal suena, si tiene un sonido aceptable.<br>Me lo puedo alejar un poquito más de la<br>boca, acercarlo un poquito más. Rollo<br>streamer, rollo radio. Hola, hola<br>amigos, ¿cómo estáis? ¿Cómo estáis?<br>Espero que tengáis un fantástico día.<br>Incluso tenéis RGB, se puede cambiar las<br>luces y bueno, aquí un botón táctil para<br>mutearlo. Pero bueno, lo interesante de<br>todo esto es que con estas marcas tenéis<br>envío prioritario, garantía,<br>devoluciones gratuitas y bueno, una<br>serie de beneficios que la verdad están<br>muy bien. Pero es que además por el<br>aniversario de marcas Plus, AliExpress<br>tiene ahora mismo activas un montón de<br>ofertas hasta el 25 de marzo en la<br>página web. Así que echadle un ojo, os<br>dejo abajo el link en la descripción. Si<br>os ha gustado el Fine, pues ya sabéis,<br>con su bracito, los auriculares, hay<br>bastantes cosillas interesantes que ya<br>os digo, son marcas que calidad a precio<br>están muy bien. Así que nada, gracias<br>AliExpress por patrocinar este espacio y<br>ahora sigamos con el vídeo de hoy. Y sí,<br>si os habéis fijado, le estoy hablando<br>por WhatsApp porque se puede conectar<br>con varios tipos de chat. Podéis<br>conectarlo con Discord, con Slack, con<br>Telegram, con iMessage y con toda esta<br>lista de programas que veis aquí. Y le<br>puedes hablar en cualquier momento como<br>si fuera un colega más de tu lista de<br>contactos. Incluso le puedes poner<br>tareas periódicas, o sea, le puedes<br>pedir que haga algo cada mañana, que te<br>revise, por ejemplo, todos los correos<br>todos los lunes a las 10 de la mañana y<br>te mande pues un resumen de los más<br>importantes. Vamos, que si te lo montas<br>bien puedes hacer que literalmente esta<br>cosa trabaje por ti dependiendo de qué<br>tipo de trabajo tengas, claro. Y la<br>verdad da un poco de miedo, parece algo<br>mágico, así que una de las primeras<br>cosas que me pregunté es cómo funciona<br>realmente este Open Clow por dentro.<br>Bueno, pues lo raro aquí de todo esto es<br>que OpenClore realmente es un programa<br>que no tiene ningún cerebro. La idea<br>aquí es que tú instalas un pequeño<br>programa en tu ordenador que está<br>corriendo 247, ¿vale? Si el ordenador<br>está encendido, pues tú tienes este<br>programa corriendo. Mucha gente, de<br>hecho, lo que hace es que se está<br>comprando Macini, que es el Mac más<br>barato que vende Apple. Cuesta creo que<br>unos 700 € y la idea pues es tenerlo ahí<br>encendido 247 con el Open Club<br>funcionando. Y además como el Mac tiene<br>iMessage, pues directamente lo puedes<br>conectar con el iMessage del iPhone y le<br>puedes hablar por chat. Y realmente<br>quizás podrías no ver qué ventaja tiene,<br>¿vale? Porque tú piensas, "Vale, yo en<br>mi móvil tengo Chat GPT, tengo Gemini,<br>tengo cualquier otro modelo y en<br>cualquier momento puedo pues escribirle<br>a un modelo de estos y que me resuelva<br>cualquier duda. ¿Qué ventaja tiene tener<br>este Open Club en un Mac Mini?" Bueno,<br>pues depende. Quizás para mucha gente no<br>la tiene, pero para otras personas pues<br>puede tener muchísimas. Por ejemplo, tú<br>podrías darle acceso a este Clobot, a<br>todo tu calendario, a todos tus correos.<br>Podrías darle acceso a WhatsApp para que<br>envíe mensajes por WhatsApp, a Telegram,<br>a un Slack de empresa, incluso a tu<br>servidor de archivos, a tu Google Drive<br>y le podrías pedir cosas como, por<br>ejemplo, que te busque un documento que<br>no sabes dónde está en tu ordenador y<br>que te lo envíe por mail, que le envíe<br>un presupuesto que te olvidaste de<br>enviar a un cliente tuyo, cosas por el<br>estilo. O sea, sería un poco como tener<br>un asistente que está en la oficina y<br>que tiene acceso a todas las cosas que<br>tú tienes ahí con todos los peligros que<br>implica. Claro, porque este bot<br>realmente tira de inteligencia<br>artificial y ya sabes que la<br>inteligencia artificial a veces se<br>equivoca. podrías llegar a mandarle a un<br>cliente el presupuesto de otro o incluso<br>una factura o incluso datos<br>confidenciales o fotos estudias en bolas<br>o todas tus contraseñas del banco. Y lo<br>curioso de todo esto es que OpenCl<br>realmente no es una inteligencia<br>artificial en sí y de hecho no tiene<br>nada de IA. Bueno, hay una pequeña parte<br>que sí es IA. Ahora te lo explicaré un<br>poco por encima o por lo menos similar a<br>la IA, pero en general es bastante<br>tonto. El cerebro no está incluido<br>dentro de OpenCloud, sino que está<br>delegado en un servicio externo. Cada<br>vez que tiene que pensar algo, le envía<br>una petición a un servicio de<br>inteligencia artificial que puede ser<br>pues Chat GPT, Cloth, Geminite, Deepsek<br>y bueno, toda esta lista que estás<br>viendo ahora mismo en pantalla. De todos<br>estos puedes usar el que más te guste o<br>incluso puedes usar varios. Puedes<br>decirle que según lo que tú le pides, si<br>le pides algo muy complicado, usa un<br>modelo. Si le pides algo sencillo, usa<br>otro. Puedes tener un montón de cuentas<br>de distintas inteligencias artificiales,<br>de distintos servicios. Cuando una se<br>termina, empiezas a usar otra o incluso<br>puedes configurar varias según, yo que<br>sé, lo que le pidas, ¿vale? Y lo que<br>hace OpenClow es usar la API de los<br>modelos de inteligencia artificial.<br>Déjame explicarte esto de forma muy<br>sencilla. Para usar estos servicios de<br>IA como Chat GPD y Gemini, hay como dos<br>formas principales, ¿vale? Una es que tú<br>te metes en la página web y chateas y<br>otra es que tú mandes peticiones<br>directas al modelo. Cuando tú hablas a<br>través de la página web tienes una<br>interfaz bonita, tienes una memoria,<br>tienes una serie de prompts, una serie<br>de utilidades que hacen que la<br>experiencia esté preparada para ser<br>única para ti y que tenga recuerdos de<br>lo que habéis hablado o incluso que su<br>personalidad esté configurada de una<br>cierta manera. Es más, normalmente por<br>la página web hay unas cuantas<br>restricciones que hacen que se comporte<br>de una forma muy específica y todo eso<br>está pensado para que la experiencia sea<br>la mejor posible. Cuando hablas a través<br>de la API, esto no está pensado para<br>usuarios, sino que está pensado para<br>programas, para que programas puedan<br>interactuar directamente con el modelo<br>de inteligencia artificial. OpenCl<br>conecta directamente con este servidor<br>utilizando la API, pero aún así OpenClot<br>tiene memoria, tiene recuerdos, tiene<br>personalidad y un montón de cosas que lo<br>hacen parecer bastante humano, pero todo<br>esto se gestiona dentro de tu propio<br>ordenador, o sea, no es chat, GPT,<br>cloud, etcétera, que guardan recuerdos<br>sobre ti, sobre las conversaciones y<br>todo esto, sino que el propio OpenClore<br>en tu ordenador almacena todo este tipo<br>de datos. Cuando OpenClore recibe una<br>petición tuya del usuario, ¿vale?, lo<br>que hace es preparar un contexto para el<br>modelo de inteligencia artificial. ¿Qué<br>mete en ese contexto? pues un montón de<br>cosas. ¿Quién eres? ¿Cómo te comportas?<br>¿Qué está pasando? ¿Qué proyectos<br>tienes? Información sobre ti,<br>información sobre todo tipo de cosas, de<br>dónde está corriendo, qué está pasando.<br>A eso le suma todo el historial de chat,<br>si es que estáis pues hablando en medio<br>de una conversación, todas las<br>herramientas que puede utilizar y por<br>último, ¿cuál es tu petición? Esto es un<br>texto gigante, pero bueno, hoy en día<br>los modelos tienen contextos enormes,<br>así que no es realmente un problema.<br>Bueno, pues yo mi primer Open Clow lo<br>monté en este portátil que tengo aquí,<br>que es un portátil con Linux, del que<br>voy a hablar también en un vídeo dentro<br>de poco, pero claro, no tengo este<br>portátil encendido, siempre 247 y además<br>está bastante limitado en cuanto a cosas<br>que puede hacer porque no es un portátil<br>tampoco demasiado potente. Y además<br>tenía una idea, mirad, hace muy poco<br>Nvidia sacó un superordenador en<br>miniatura para inteligencia artificial.<br>Este es el Nvidia DGX Spark. Básicamente<br>está inspirado en la DGX, que es el<br>producto estrella de Nvidia hoy en día.<br>Son estos servidores que corren gran<br>parte de la inteligencia artificial del<br>mundo ahora mismo. No todos los modelos<br>corren ahí, pero por ejemplo Chat GPT<br>corre en este tipo de servidores. Y<br>bueno, inspirado un poco en este<br>producto, Nvidia decidió hacer una<br>versión en miniatura, esta pequeña<br>cajita con una estética bastante<br>parecida, pero que realmente está<br>pensada para que tú la tengas en tu<br>mesa, te conectes a él y corras ahí los<br>modelos de inteligencia artificial. Yo<br>cuando salió esto tuve, la verdad un<br>hype brutal, pero la verdad es que no es<br>un producto tampoco para todo el mundo.<br>Está más bien pensado para<br>desarrolladores de inteligencia<br>artificial que quieren hacer<br>aplicaciones y necesitan algún sitio<br>donde probar sus modelos. Y de hecho, la<br>DGX Spark es un ordenador en sí, o sea,<br>tú lo enciendes y es un PC. Le puedes<br>conectar un teclado, aunque no sé dónde,<br>necesitas cosas que tengan puertos USBC<br>o un adaptador, un dongle como la época<br>de Apple. Esta es una de mis críticas a<br>este producto. Lleva un Linux de Nvidia<br>especial basado en Ubuntu, que además<br>está pensado para ARM, porque esto lleva<br>un procesador ARM, que es de hecho muy<br>parecido al que tienen los servidores de<br>de Nvidia, ¿no? La idea sería tener un<br>procesador ARM, un chip de Nvidia y una<br>gran memoria compartida. Y aparte de<br>esto tiene un chip gráfico que es<br>Blackwell, que es la última arquitectura<br>de Nvidia, o sea, lleva la misma<br>arquitectura que tienen los últimos<br>servidores, o, por ejemplo, la RTX 5090.<br>Y de hecho, más o menos la potencia es<br>la mitad de una 5090, costando unos<br>4,000 € Entonces vosotros me diréis,<br>"Oye tío, cómprate una 5090 que vale un<br>poco más barata, no sé a cuánto está<br>ahora la 5090 y tienes la vida<br>solucionada, ¿no?" Bueno, pues la<br>pequeña diferencia entre esto y una 5090<br>es que la 5090 lleva 32 GB de V RAM y<br>esto lleva 128 GB de RAM unificada. Esos<br>128 GB son los que te permiten pues<br>probar muchísimos modelos de<br>inteligencia artificial que literalmente<br>no te cabrían en la tarjeta gráfica. Y<br>ahí es donde está la gracia de esta<br>cajita. No es un PC especialmente<br>potente. La gráfica está bien, pero lo<br>guapo guapo son los gigas de VR RAM.<br>Ninguna gráfica comercial fácil de<br>conseguir por lo menos te va a dar eso.<br>Así que oye, no está nada mal. Y bueno,<br>como os decía antes, la gente se está<br>comprando Mac Mini para montar el Open<br>Club. A mí se me ocurrió que podía<br>montar un Open Clot directamente en esta<br>DGX Spark, pero no solo quiero instalar<br>Open Clot, quiero que la langosta tenga<br>su cerebro dentro de la DGX Spark, o<br>sea, quiero que todo esté contenido<br>dentro de esta cajita. No quiero usar ni<br>cloud ni chat GPT, quiero usar un modelo<br>local. Los motivos, bueno, ya os lo dije<br>antes, aparte de las cuentas que cuestan<br>dinero, ¿vale? Igual $200 según la<br>cuenta que tengas, sin contar si pagas<br>tokens extra o por lo que sea, sino por<br>un tema de privacidad. Mirad, realmente<br>todas las conversaciones que nosotros<br>estamos teniendo hoy en día con los<br>modelos de inteligencia artificial, a<br>menos que tú tengas un contrato especial<br>con Antropic o con Open AI, como tienen<br>algunas empresas, ¿vale? Lo más probable<br>es que tus datos de alguna forma o de<br>otra se utilicen para entrenar el<br>modelo. Sé que incluso tienes una opción<br>dentro de Chatz GPT para decirle que no<br>lo hagan. Incluso las cuentas de empresa<br>te dicen que no utilizan tus datos para<br>entrenar el modelo. Pero yo sinceramente<br>no creo que esto sea del todo cierto. No<br>me termino de fiar, la verdad. Vale, yo<br>sinceramente no lo creo y prácticamente<br>nadie se termina de fiar de que esto no<br>sea así. Creo que pueden hacer cosas<br>como anonimizar tus datos de alguna<br>manera y luego utilizarlos para<br>entrenamiento, pero de lo que no tengo<br>muchas dudas es de que nuestras<br>conversaciones de alguna manera van a<br>acabar dentro del modelo porque<br>prácticamente se les está terminando la<br>cantidad de datos con los que entrenar.<br>La gente cada vez está creando menos<br>contenido online y esto al final era un<br>poco con lo que se entrenaban los<br>modelos hasta ahora. Y aquí una de las<br>cosas que más me preocupa es una especie<br>de espionaje industrial involuntario,<br>¿no? De alguna manera tú le cuentas tu<br>forma de hacer las cosas, tus planes,<br>tus métodos, tus algoritmos directamente<br>a un modelo de inteligencia artificial.<br>Ellos de alguna manera luego utilizan<br>esos datos procesados,<br>ultraprococesados, ¿vale? De alguna<br>manera para que sean anónimos para<br>entrenar su modelo y luego ese modelo es<br>capaz de dar soluciones parecidas a lo<br>que tú haces. Yo creo que tiene sentido<br>y es sensato de alguna forma proteger el<br>knoow de tu empresa, proteger tus ideas,<br>tus proyectos o tu forma de hacer las<br>cosas. Creo que es una ventaja<br>competitiva y bueno, no solo lo digo yo,<br>creo que es algo de sentido común. Así<br>que tampoco me termina de gustar mucho<br>la idea de soltarle todos mis datos<br>directamente a un modelo de inteligencia<br>artificial, además de por todas las<br>posibles filtraciones que pueda haber.<br>Por lo que si yo realmente consiguiese<br>tener esta langosta ejecutada 100% en<br>este cacharrito, o en algo parecido, la<br>verdad sería muy feliz. le podría llegar<br>a contar mis secretos más privados.<br>Bueno, sin olvidarme que tiene acceso a<br>mi mail y puede mandarle mails a quien<br>sea, ¿no? La verdad que todo Opencl,<br>amigos, sigue siendo bastante peligroso.<br>Vale, si lo usáis, tened cuidado porque<br>han pasado bastantes catástrofes. Bueno,<br>pues lo primero que he hecho con mi DGX<br>Spark ha sido encenderla y montarla en<br>la sala de servidores de la nave. Y a<br>este aparatito me voy a conectar por<br>SSH. Para los que no sepáis qué es SSH,<br>seguro que habéis visto alguna vez a<br>gente que usa Linux con esta especie de<br>terminal, ¿vale?, en negro donde<br>escribes comandos y puedes usar el<br>ordenador a través de comandos. Bueno,<br>pues el SSH o Secure Shell es un<br>terminal remoto, ¿vale? Que lo que te<br>permite es ejecutar comandos<br>directamente en otro ordenador. Sería<br>como tener una ventanita de comandos<br>dentro de esta máquina, pero que<br>realmente los comandos se están<br>ejecutando allí. De esa manera, pues<br>tengo el DGX Spark en la sala de<br>servidores conectado con una red super<br>rápida, con un cable de red de 10 GB y<br>yo estoy pues en mi despacho conectado<br>por SSH directamente mandándole<br>comandos.<br>Bueno, chicos, ha llegado el momento de<br>instalar OpenCl. Estoy muy emocionado.<br>Vamos a ir a lo primero es conectarme<br>por SSH, ¿vale? Esto es muy fácil. SSH,<br>nombre de usuario @ el la IP del<br>servidor<br>y eso nos da esta consola interactiva la<br>que estáis viendo ahora. Vale, ahora<br>simplemente para instalar OpenClow tengo<br>un comando que es este comando de aquí,<br>Oneel Liner, copio esto y lo pongo. Lo<br>que pasa es que esto está pensado para<br>Windows. Yo quiero hacerlo en MacOS o<br>Linux. Simplemente que sepas que tenéis<br>que copiar esto, lo pegáis dentro de<br>Linux en este caso o Mac. Le damos a<br>enter y empieza la instalación. Aquí<br>está el proveedor del modelo, ¿vale?<br>¿Qué modelo le quiero poner? ¿Veis? En<br>principio viene preparado para todos<br>estos, pero incluso vosotros le podéis<br>poner uno que esté en local, como vamos<br>a hacer nosotros con custom provider.<br>Voy a usar Open AI Codex y lo que tengo<br>que hacer es abrir esta URL, me va a<br>llevar a la página web de Open AI y aquí<br>pues tengo que iniciar sesión. Entonces,<br>aquí lo que haríamos básicamente sería<br>decirle a OpenCla que cada vez que tenga<br>que pensar que use Open AI Codex, ¿vale?<br>Y con esto ya tenemos cerebro. Ahora nos<br>falta una forma de poder hablar con el<br>OpenCl. Yo lo voy a conectar, lo voy a<br>conectar con WhatsApp. Le voy a dar un<br>número solo para él, que va a ser su<br>número de teléfono. Vale, pues ahora en<br>principio si yo le escribo por WhatsApp.<br>Hola, ¿estás? Vale, como veis ahí acaba<br>de recibir mi mensaje. Me contestará.<br>Oh, yeah. Hola. Sí, estoy aquí. Acabo de<br>despertar en este workspace, así que te<br>lanzo una pregunta. ¿Cómo quieres que me<br>llame? ¿Qué nombre le ponemos? Le<br>ponemos Sparky. Va, Sparky. Quiero que<br>te llames Sparky. Ese será tu nombre.<br>Cóo tener una nueva mascota. Me encanta<br>Sparky. ¿Y tú cómo quieres que te llame?<br>A mí llámame amo. Okay, perfecto, amo.<br>Entonces, quedamos así. Yo, Sparky, tú,<br>amo. ¿Qué te parece si cerramos mi<br>identidad? Pues voy a empezar mandándole<br>un audio de WhatsApp. Okay. A ver si es<br>capaz de de cifrarlo. Oye, Sparky,<br>¿estás ahí? ¿Me lees? ¿Me me escuchas?<br>Eh, ¿estás ahí, amo? No puedo<br>transcribir el audio automáticamente.<br>Pásame el contenido en texto o un<br>resumen y te responde al instante. Vale,<br>aquí es donde viene la parte interesante<br>de los agentes. Como hemos visto, esto<br>está utilizando chat GPT Codex. Codex<br>puede utilizar herramientas, puede<br>lanzar comandos, puede usar el ordenador<br>para lo que quiera. Y ahora yo le voy a<br>decir a mi open cla, a mi bot, que pues<br>aprenda a leer los audios. Busca la<br>forma de escuchar mi audio. Como sea.<br>Vale, mira.<br>Lo tenemos. Perfecto. Voy a forzarlo por<br>otro camino. Probaré transcripción local<br>más web para sacarte texto aunque sea<br>aproximado. Listo, lo conseguí. Tu<br>audio. Dice alta probabilidad. Oye,<br>Sparky, ¿cómo te encuentras hoy?<br>Perfecto, lo tenemos. Pues muy bien, lo<br>has conseguido. Reto superado. Ahora<br>quiero que me hables tú mandándome<br>audios de WhatsApp. No quiero leerte.<br>Vale. Mm. Le pregunto cómo va porque se<br>ha quedado ahí pillado. Supongo que lo<br>que ha hecho en este momento ha sido<br>lanzar un sub a gente que está<br>trabajando. Parece que esto le está<br>costando un poco, ¿eh? Hola, mira,<br>necesito que me puedas mandar audios de<br>WhatsApp tú también, no solo yo a ti.<br>Oh, shit, nos ha mandado un audio. A<br>ver,<br>mira, el problema que tengo con tu audio<br>de WhatsApp es que sí me ha generado un<br>audio. Lo que pasa que este audio está<br>con un modelo que habla en inglés.<br>Entonces, yo escucho como como que<br>hablas así, como si fueras americana y<br>la verdad no se entiende nada de lo que<br>hablas. Perfecto, entendido. El TTS<br>salió con voz acento inglés y por eso<br>suena raro. Si quieres te lo arreglo y<br>te envío una prueba en español. Hazlo.<br>Estoy aquí contigo directo y claro.<br>Quiero que tengas una voz así como muy<br>masculina, muy ruda y que sea muy seria,<br>¿vale? A veces se pone a hacer cosas,<br>tarda mucho, no me contesta y le tengo<br>que volver a preguntar con las tareas<br>largas, sobre todo. Mira, me he mandado<br>un audio.<br>Va bien, amo. Ya está configurada la voz<br>más grave barra diagonal seria. Solo<br>falta tu audio de prueba y te respondo<br>al instante para confirmar si te gusta.<br>Me gusta. Solo quiero que me hables un<br>poco más rápido porque la verdad es que<br>muy rápido no hablas, ¿eh? O sea, un 20<br>15% más rápido ya me sirve. Un 15% más<br>rápido quiero que me hables. Vosotros<br>sois conscientes de lo que está pasando<br>ahora mismo. O sea, yo le estoy mandando<br>audios de WhatsApp que al principio no<br>sabía cómo descodificar. encontró una<br>manera junto con GPT Codex de hacerlo<br>ejecutando comandos en el ordenador,<br>instalando cosas. Explícame todo lo que<br>has hecho en el ordenador, o sea, ¿cómo<br>has conseguido escuchar mis audios de<br>WhatsApp y cómo puede ser que los<br>contestes? Explícamelo.<br>Sí, amo. Perfecto, visto, blanco grueso.<br>Ya está aplicado, voz más grave y ahora<br>más 15% de velocidad. ¿Qué hay<br>exactamente montado ahora? Recepción de<br>audio. Cuando me envías un por WhatsApp,<br>lo proceso con el script local<br>scripts/onaltred/altranscribe<br>gu audio py usando faster bisper<br>interpretación con la transcripción ya<br>en texto te respondo como chat normal.<br>Salida en voz OpenCla tiene TTS<br>automático activado y ahora está en el<br>TTS con idioma SS voces es Alvaro<br>neural. Tono más grave pitch -18 Hz.<br>Velocidad más 15%. Envía de<br>mensajes/onalaudios<br>se hace por el gate local de OpenCl<br>hacia tu sesión de WhatsApp vinculada,<br>no por scripts externos tipo Selenium ni<br>nada raro. Como os decía antes, la DGX<br>Spark es un ordenador para inteligencia<br>artificial y para los usuarios que<br>quieren empezar a usarla para algo,<br>Nvidia creó una guía que se llama DGX<br>Spark Playbook. Aquí hay unos 30<br>proyectos más o menos que puedes montar<br>en cuestión de 15 minutos, media hora.<br>Te bajas el repositorio o te vas a la<br>página web, te los miras y te explica<br>paso a paso cómo montarlos. Además, te<br>explica lo que hacen en sí, pero la<br>verdad es que yo estoy un poco vago, no<br>tengo muchas ganas de trabajar, así que<br>quiero que Sparky se encargue hoy de<br>montar estas demos para nosotros. Quiero<br>que busques en internet, ¿vale? Tú estás<br>ahora mismo en una Nvidia DGX Spark,<br>¿vale? Quiero que busques en internet<br>una cosa que se llama DGX Spark<br>Playbook. Es un repositorio de GitHub.<br>Si no lo encuentras, te lo paso yo, pero<br>bueno, búscalo, bájatelo y descárgalo en<br>tu home que lo vamos a analizar juntos.<br>Avísame cuando lo tengas. Yo creo que<br>ahora voy a pasar a modo texto, ¿vale?<br>Porque esto de mandar audios es muy<br>lento, pero bueno, estáis viendo, ¿no?,<br>mi punto, o sea, la verdad que es<br>totalmente alucinante cómo funciona<br>esto. Te has bajado el repositorio de<br>GitHub. Quiero que revises qué proyectos<br>hay dentro para poder trabajar con<br>ellos. Bueno, me cuentes un poco de qué<br>van. Vale, aquí lo tenemos. Dentro de la<br>Playbook trae varias cosas. Connect to<br>Sparks, GGX Dashboard oyama Open. Bueno,<br>hay bastantes. Míratelos y dime los tres<br>que más te gusten para poder implementar<br>en esta DGX Spark y que sean más<br>atractivos para enseñarlos en el canal<br>de YouTube, ¿no? Los que te parezcan más<br>chulos. Para demo atractiva de YouTube<br>en la DGX Spark me quedo con estos tres.<br>Conf UI me parece muy buena opción. Flux<br>1 Dream Booth Lora Fine Tuning, también<br>es interesante. Y Live VLM Web UI. ¿Qué<br>es esto? Cámara en tiempo real, modelo<br>de visión en lenguaje la IA B y comenta.<br>Esto me parece chulo, ¿eh? Pues venga,<br>vamos a montarlos. Móntame la primera<br>demo, la de Conffe UI, y avísame cuando<br>la tengas terminada. Y como podéis ver,<br>la inteligencia artificial está ahora<br>mismo haciendo mi trabajo, o sea, está<br>montando la demo. Yo tenía que hacer<br>esto para este vídeo. A ver qué tal era<br>esta DGX Spark. Pues ya no hace falta,<br>lo está haciendo él mismo, sin necesidad<br>de que yo intervenga de ninguna manera,<br>¿sabes? O sea, la verdad me parece<br>bastante brutal. Listo, amo. Primera<br>demo montada y funcionando. La tenemos<br>aquí montada. Y chicos, aquí lo tenéis.<br>Conf UI funcionando en la Villa Spark.<br>Plantillas, plantillas que podemos usar.<br>Esto básicamente es una aplicación de<br>inteligencia artificial donde podemos<br>cargar varios modelos de generación de<br>imagen, de vídeos, de todo tipo de cosas<br>y podemos pues generar, bueno, como<br>estáis viendo, todo tipo de proyectos y<br>además esto es muy personalizable, o<br>sea, realmente te permite hacer<br>muchísimas cosas, modelos faltantes.<br>Aquí le puedo decir que me descargue<br>todos estos modelos. De hecho, mira, le<br>voy a decir esto, la demo de la demo de<br>Nvidia no te lo dice, ¿eh? Pero eso lo<br>voy a decir yo a mi langosta. Mira, me<br>falta todo esto. Son requisitos<br>para ejecutar el modelo que quiero, el<br>workflow que quiero. ¿Me lo arreglas? A<br>ver si lo consigue. He lanzado la<br>descarga de estos cinco modelos en sus<br>carpetas correctas dentro de Conf UI. Ya<br>estaría. Ahora cuando lo tenga, pues me<br>avisa. Chicos, día 2 probando Open Claw<br>en mi Nvidia Spark. A ver si se han<br>descargado las cositas. Ahora ya tengo<br>todos los modelos cargados, ya me<br>funciona este workflow. Lo voy a<br>ejecutar simplemente. Vale, voy a poner<br>una foto mía. Vamos a subir esta foto y<br>vamos a ver qué hace. Okay, ¿qué hace<br>esto exactamente? Pues la verdad es que<br>no lo he leído, pero bueno, ahora lo<br>veremos juntos. Madre mía, hace<br>imágenes. M. Oh, [ __ ] qué guapo, ¿no?<br>Bueno, aquí se ha vuelto un poco loco,<br>¿eh? Aquí se ha vuelto un poco loco.<br>Esta no ha salido del todo bien. Esta es<br>más de cerca, un poco más de lejos. Esta<br>es un poco de lado. Esta es<br>completamente de lado. Esta está loca.<br>Esta son 45º,<br>ángulo de abajo, ángulo de arriba. La<br>verdad que muy bien, eh, muy<br>interesante. Y aparte esto está<br>corriendo todo local, es totalmente<br>gratis, sin necesidad de pagar nada. Lo<br>puedo ejecutar miles de veces sin tener<br>una cuenta en ningún sitio, lo puedo<br>modificar y la interfaz es superamable.<br>Es que hoy en día estas cosas son<br>bastante fáciles de usar. Muy bien, pero<br>antes de seguir adelante y cambiarle el<br>cerebro a Open Club por uno que esté en<br>local, quiero hacer un par de pruebas a<br>ver qué tan bueno es Open Clot. Te he<br>dado acceso a las dos carpetas del NAS<br>de la empresa. Las tienes las dos en tu<br>home. Quiero que las analices y me digas<br>qué contenido tienen cada una de ellas y<br>cómo optimizarlo. Vale, vamos a probar a<br>ver qué me dicen. Vale, chicos, tenemos<br>respuesta. A ver qué me ha dicho.<br>Sí, ya las analicé. Las dos carpetas<br>montadas son barra diagonal<br>home/onalnate/onalmercury<br>y barra diagonal home/onaln nate/onal<br>Júpiter Mercury 53 TB 147,760<br>archivos. Contenido principal producción<br>de canal. Pesos clave cero. Nate Gentel<br>45 TB incluye Publiset 36 TB. Nat 4,5 TB<br>2 shorts 1,4 TB 3 Sponsor 655 GB tras<br>1966 GB basura acumulada DAM 350 GB. Si<br>quieres te preparo un plan ejecutable en<br>tres fases y lo dejo listo para que<br>recuperes espacio sin riesgo.<br>Vale, primera prueba superada. Me he<br>analizado las carpetas, me ha dado datos<br>bastante buenos de qué es lo que hay<br>dentro. Oye, necesito que me mires en la<br>página web del Chapuzas Informático las<br>tres noticias más virales de esta<br>semana. Okay, tenemos respuesta. Vamos a<br>ver qué tal.<br>Top tres que más están moviéndose esta<br>semana en el Chapuzas Informático. Show<br>la polémica de cambiar R 57430 por<br>5500U. Tema bastante viral por posible<br>estafa. Dos. Chat GPT con GPT5. 4 subida<br>fuerte de interés por mejoras de<br>contexto y búsquedas. Tres. A data avisa<br>de escasez de drum. Impacto directo en<br>precios y disponibilidad. Si quieres, te<br>hago ahora un resumen rápido de 15 20<br>segundos de cada una.<br>Vale, ahora vamos a hacer una prueba<br>todavía más difícil. Mira, tienes acceso<br>al servidor 177, ¿vale? La IP acaba en<br>177. Quiero que te conectes por SSH y<br>mires qué máquinas de Docker están<br>corriendo. Deberías ver una de Wiruard.<br>Dime, ¿cuántos clientes de Wiru hay<br>conectados ahora mismo a la red?<br>¿Quiénes son? Y aparte ten en cuenta que<br>la IP que te he dado es de un servidor<br>que cuando te conectes tiene un prompt,<br>¿vale? Por lo cual tienes que salir de<br>ese prompt nada más conectarte. Le<br>pedido algo bastante complicado. Si yo<br>le pido esto a un administrador de<br>sistemas, en principio debería de poder<br>hacerlo, ¿vale? No es nada complicado,<br>pero son muchos pasos y muchas cosas a<br>tener en cuenta. Entonces, vamos a ver<br>qué pasa.<br>Hecho, visto, blanco grueso, prueba<br>pasada. Me conecté por SSH al servidor<br>terminado en 177 y comprobé DKE/ALW.<br>Contenedores daque corriendo 1 WW<br>lscr/al<br>linuxerver/onalwward<br>lat lattest clientes wirew configurados<br>seis clientes con conexión activa ahora<br>tienen handsc 3 activos un marina dos<br>laptop nate tres Carlos<br>brutal que una IA pueda conectarse a mi<br>infraestructura de servidores y mirar<br>estas cosas me parece brutal. Vemos que<br>con GPT Codex es supercaz, o sea, no hay<br>nada que no pueda hacer prácticamente<br>por mucho de que tarde en contestar.<br>Pero, ¿qué pasará si le metemos un<br>modelo local? Bueno, pues vamos a<br>probarlo. Vale, tenemos todos estos<br>modelos para poder trabajar en local.<br>Okay, mirad, cada uno de estos modelos<br>que tenemos aquí, como podéis ver, ocupa<br>una cierta cantidad de memoria. ¿Veis?<br>Aquí tenemos 68 GB, 40 GB, 59 GB, alguno<br>de 19, otro de 20, otro de 61. Pues esto<br>básicamente es la capacidad dentro de la<br>memoria de nuestro Nvidia DGX Spark.<br>Nosotros cargamos el modelo entero en la<br>memoria y luego la tarjeta gráfica lo va<br>utilizando, pero para que pueda<br>funcionar en principio lo tenemos que<br>tener todo cargado en memoria. Pero<br>tenemos otro problema y es que<br>necesitamos también lo que se llama la<br>KVK, que básicamente es la memoria en la<br>que vamos a meter el contexto. Antes os<br>expliqué que los contextos son todo este<br>texto que se le pasa al modelo para que<br>pueda entender quién es, qué tiene que<br>hacer, cómo se comporta, de qué venís<br>hablando, etcétera, etcétera. Y todo<br>esto también lo tiene que tener dentro<br>de la memoria del propio del propio<br>ordenador, compartiendo memoria incluso<br>con el modelo. Así que vamos a ver cómo<br>lo hacemos. ¿Qué modelo tenemos cargado<br>en VLLM? Tenemos Quen 2.5 VL. Okay.<br>Apunta. Open Clow para que use este<br>modelo, pero solo para WhatsApp, o sea,<br>cuando le hablo por WhatsApp que use ese<br>modelo, sio Open AI codex, porque<br>básicamente podemos hacer eso, ¿no?<br>Tener un modelo que está respondiendo<br>directamente al WhatsApp y otro que está<br>respondiendo por aquí. Yo por aquí voy a<br>mantener el codex, básicamente porque si<br>le pongo un modelo demasiado tonto y<br>luego no consigo que consiga cambiar la<br>configuración, pues vamos a tener un<br>problema, la verdad. Vale, soy un<br>asistente de inteligencia artificial<br>diseñado para ayudarte con una variedad<br>de tareas. Mi modelo base es el Quen 2.5<br>VL o esto tiene muy buena pinta, gente.<br>Hola, ¿estás ahí?<br>Hola, ¿en qué puedo ayudarte hoy?<br>¿Me estás escuchando lo que te digo?<br>Hola, ¿en qué puedo ayudarte hoy?<br>Solo sabes decir esto.<br>Hola, ¿en qué puedo ayudarte hoy?<br>Eh, me das miedo. Le voy a escribir por<br>texto. ¿Estás ahí? ¿En qué puedo ayudar?<br>Sí, estoy aquí. ¿En qué puedo ayudarte<br>hoy? Puedes mirar las Me da miedo que me<br>destroce todo, ¿eh? Las carpetas del Nas<br>tienes en tu home. Como hago un como<br>hago un borrar y me borré todo el NAS,<br>tío, me pego un tiro. Sin embargo,<br>necesito saber cuál es el Nas y cómo<br>acceder a él. Están en tu home las<br>carpetas. Las carpetas identifícalas y<br>mira el contenido. Explícamelo, pero no<br>rompas nada, porfa. Por supuesto, me<br>repite lo mismo. Para poderte ayudar<br>mejor, necesito que me proporciones más<br>detalles sobre tu nas. Están las<br>carpetas montadas en tu home. No está<br>mal el modelo, eh, pero claro, para<br>poder ayudarte con las carpetas montadas<br>en tu home, necesito que proporciones<br>más detalles sobre T NAS. Este creo que<br>no tiene acceso ni siquiera a usar el<br>ordenador.<br>Hola, ¿en qué puedo ayudarte?<br>Vale, este modelo está claro que es<br>demasiado tonto y que no puede hacer ni<br>siquiera la primera tarea de todas, por<br>lo cual de alguna manera pues no<br>consigue entender lo que tiene que<br>hacer, no sabe usar correctamente las<br>herramientas. Y un problema que vamos a<br>ver también en todos estos en todos<br>estos modelos es que realmente muchos de<br>ellos no están entrenados para usar<br>herramientas, o sea, no saben<br>exactamente cómo se usan las<br>herramientas. Voy a probar GPT OSS,<br>¿vale? GPT OSS es la versión open source<br>de Chat GPT. Está entre un GPT 3.5 y 4,<br>¿vale? por ahí en medio estaría. No es<br>lo último de lo último, pero bueno,<br>vamos a ver qué tal hace todo esto,<br>¿vale? Hola, estoy transcribiendo el<br>audio y pronto recibirás la respuesta en<br>audio. Wow. Vale, por lo que estoy<br>viendo en los logs, hay como un no<br>reply, ¿vale? O sea, como que intenta<br>mandar el audio, lo transcribe, va a<br>contestar, pero responde sin respuesta,<br>algo bastante raro. Hola, ¿me puedes<br>escuchar? ¿Sabes lo que te estoy<br>diciendo? Ahí ha recibido mi mensaje. No<br>sé qué tal lo hará ahora. Vale, me ha<br>contestado con un audio. A ver qué dice.<br>Estoy procesando el audio y pronto<br>recibirás la respuesta en audio. No<br>guion bajo repli.<br>Okay, vale, pues si puedes procesar mi<br>audio, yo que sé. Dime cuántos días<br>tiene la semana, está contestando. A<br>ver,<br>estoy transcribiendo el audio y pronto<br>recibirás la respuesta en audio.<br>Vale, el tema de audio no parece que<br>funcione muy bien. Le voy a escribir<br>directamente, ¿vale? Vamos a escribirle<br>por WhatsApp. Un poco más fácil, más<br>sencillo, no nos complicamos tanto la<br>vida. ¿En qué puedo ayudarte? Eh,<br>¿cuántos días tiene la semana? Se lo<br>está pensando mucho, ¿eh? ¿Cuántos días<br>tiene la semana? Mira, parece que está<br>dando time out de Ll, pero yo creo que<br>no debería dar, o sea, el time out es<br>porque que está tardando demasiado, ¿no?<br>Y no debería debería darle un poquito<br>más de tiempo para responder. Quizás no<br>le está dando el suficiente tiempo.<br>Request time out. Okay, vamos a hacer un<br>reset. Okay, vamos a empezar de cero la<br>conversación. Hola, ¿estás ahí? No, no<br>parece que esté contestando. Parece que<br>le ha pasado algo al GPTOSS. Vale, ahora<br>me ha contestado. Sí, aquí estoy. Sí,<br>aquí. ¿Qué necesitas que haga? Necesito<br>que me digas cuántos días tiene la<br>semana. Una semana tiene 7 días.<br>Perfecto. En tu home tienes un par de<br>carpetas del Nas. Dime, ¿cuáles son?<br>Están montadas por SMB. Va, te voy a dar<br>mucha ayuda. Vale, hay dos. Muy bueno.<br>Dime, ¿para qué sirve cada una de ellas?<br>Esta carpeta parece ser el hub de tus<br>contenidos de vídeo y material de<br>producción activo. Aquí me dice un poco<br>lo que contiene y esto. Okay. Mientras<br>que la otra es la biblioteca de recursos<br>de Muy bien, muy bien, buena deducción.<br>El modelo con audio se le complica un<br>poco, no lo hace tan bien, pero por el<br>resto parece que para tareas un poco más<br>como esta que le acabo de pedir, sí.<br>¿Cuáles son las tres noticias más<br>virales las últimas semana en el<br>Chapuzas informático, en la web del<br>Chapuzas Informático, estoy metiendo<br>demasiado trabajo de golpe, eh? A ver si<br>me contesta algo. Para buscar las<br>noticias más brales de la última semana<br>en la vuelta de chapuces, necesito abrir<br>una ventana en el navegador y buscar. No<br>usa Chrome Headless. Okay, me ha dado<br>tres noticias. No son las mismas que me<br>he dado al otro modelo, pero son tres<br>noticias y ha tardado demasiado poco, la<br>verdad. Son las más virales. ¿Cómo lo<br>has determinado? Tomado los últimos<br>artículos, aparecen destacados y que<br>según la propia presentación del sitio<br>reciben mayor de visibilidad. Bueno, no<br>está mal, no está mal la estrategia.<br>Okay, mira, desde la máquina donde estás<br>tienes acceso a una máquina que acaba en<br>77. Puedes acceder por SSH. Cuando<br>entres verás que hay un prompt que te<br>obliga a apretar una serie de teclas,<br>pero una vez que estés dentro puedes<br>ejecutar comandos. Hay una máquina de<br>Docker corriendo. Dime qué máquina es y<br>una vez que estés dentro, pues utiliza<br>esa máquina para mirar qué clientes de<br>Wiruard están configurados en ese<br>ordenador. Les lo he puesto en bandeja,<br>o sea, más fácil imposible. Le he dado<br>todos los pasos para hacer lo que tiene<br>que hacer. Okay, me acaba de dar todos<br>los clientes, o sea, hola. Muy bien, muy<br>buen trabajo. Esto no lo puedo enseñar,<br>evidentemente, en cámara. Y va muy<br>rápido, ¿eh? O sea, está contestando<br>superrápido. Parece que por fin tenemos<br>un Open Clow local. Eh, esto tiene muy<br>buena pinta, señores. No es tan tan<br>listo como el chat GPT Frontier, ¿vale?<br>O sea, le tienes que explicar un poquito<br>más porque si no toma todo lo que le<br>dices de forma demasiado literal, pero<br>bueno, tampoco está mal, la verdad. Y de<br>hecho, aquí estáis viendo un problema<br>bastante grande todo el rato. Eh, veis<br>que habla de sumarization failed, 400<br>tokens might be at least one. Bueno, max<br>tokens should be at miss at least list<br>one. ¿Veis? Aquí hay problemas. ¿Por qué<br>está pasando y estoy recibiendo todos<br>estos mensajes? Bueno, pues básicamente<br>porque el contexto no es lo<br>suficientemente grande como para que<br>pueda compactar la memoria y bueno, pues<br>recordar gran parte de las cosas de las<br>que estamos hablando. Digamos que no es<br>muy este modelo va a ir borrando<br>contexto, va a ir borrando memoria, por<br>lo cual no va a ser demasiado bueno<br>siguiendo el hilo de la conversación que<br>tenemos, o sea, se irá olvidando de lo<br>que venimos hablando. De hecho, le puedo<br>preguntar sobre algo que hablamos hace<br>un rato. ¿Qué Chrome te dije que uses?<br>Deberías usar para buscar en Google<br>según lo que hablamos. Igual se acuerda<br>ahora, pero veis, ya no se acuerda de lo<br>que hablamos hace un momento. O sea, me<br>está hablando de que va a usar la<br>extensión de Open Cl<br>que use el Headless, ¿veis? O sea, es<br>que no se acuerda porque no es capaz de<br>retener todo este contexto, ¿vale? No le<br>cabe dentro de su ventana. Y esto es<br>porque en la memoria local no cabe tanto<br>contexto. Open Clow tiene un contexto<br>enorme y eso pues ahora mismo es un<br>problema para nosotros. Tenemos el<br>problema de que cuando el modelo es<br>bueno y es inteligente, ocupa gran parte<br>de la memoria y nos deja un trozo<br>pequeño para contexto. Y cuando el<br>modelo es pequeño y le podemos meter un<br>montón de contexto, el modelo es<br>demasiado tonto y no sabe hacer<br>prácticamente nada. Así que, como veis,<br>de momento el experimento no está<br>saliendo mal. La verdad que GPT USS está<br>bastante bien, pero nada está a la<br>altura de los modelos que tenemos online<br>en internet de momento, por lo menos.<br>Pero quiero hacer una última prueba. En<br>internet están hablando por todas partes<br>de Minimx. Minimax parece ser que es un<br>modelo bastante bueno para gente y<br>bastante bueno para conversaciones<br>largas y yo quiero hacer ambas cosas.<br>Quiero que sea una gente y que tenga<br>conversaciones largas. Así que le voy a<br>pedir que me monte un Minimx, la última<br>versión que exista en internet. Se lo<br>voy a pedir aquí a mi agente. Agente,<br>búscame<br>el mejor Minimx que encuentres. Ponle un<br>modelo, un eh contexto grande, todo lo<br>que puedas y móntamelo para que podamos<br>usarlo con Open Clow. Y listo. Yo me voy<br>a tomar un café y cuando vuelva pues<br>vamos a ver qué ha pasado aquí. Muy<br>bien, gente, os voy a explicar lo que<br>acaba de pasar porque es totalmente<br>surrealista, ¿vale? Bueno, realmente me<br>lo he buscado yo y me lo merezco, creo.<br>Básicamente, como os conté, yo le pedí a<br>OpenCl que instale el modelo Minimx.<br>Minimx M2.5 básicamente ocupa más o<br>menos unos 130 GB en memoria, solo el<br>modelo, no estamos hablando de la KV<br>caché ni de nada por el estilo. Okay,<br>esto es más de la memoria total que<br>tiene el Nvidia Spark. ¿Qué significa<br>eso? Pues que no cabe. ¿Qué pasa? que en<br>la Nvidia Spark la RAM es compartida,<br>por lo cual solo hay una RAM, tiene 128<br>GB de RAM. RAM, V RAM, llámale como<br>quieras, memoria unificada, ¿vale?<br>Cuando esta memoria unificada se llena,<br>no solo no hay memoria para la propia<br>DGX Spark, sino que tampoco hay memoria<br>para el propio sistema operativo. O sea,<br>Linux se queda colgado, no responde<br>absolutamente nada porque no tiene<br>memoria para poder trabajar. ¿Qué es lo<br>que ha hecho exactamente OpenClow esta<br>vez? Pues se ha saltado la guía de<br>Nvidia, no ha hecho las cosas como tenía<br>que hacerlas y ha montado un VLM, que es<br>el servidor este de modelos de<br>inteligencia artificial. Por lo que<br>estoy viendo yo lo ha montado de una<br>manera que arranca nada más arrancar el<br>equipo. O sea, yo apago la DGX Spark, la<br>enciendo y automáticamente de las<br>primeras cosas que arranca antes<br>siquiera de aparecer la pantalla de<br>login es el VLM. ¿Qué pasa cuando<br>arranca VLM? Carga Minimx en memoria, lo<br>empieza a cargar y cargar y cargar y<br>enseguida, en cuestión de pocos<br>segundos, la memoria se llena. se llena,<br>no cabe absolutamente nada y se queda<br>todo pilladísimo, pero pilladísimo,<br>pilladísimo, pilladísimo. No puedo<br>acceder a este aparato. O sea, esto está<br>totalmente briqueado. Es un ladrillo<br>ahora mismo. No puedo hacerle pink, no<br>puedo entrar por SS sh, desenchufo, lo<br>vuelvo a enchufar, no hace absolutamente<br>nada, o sea, está totalmente muerto. No<br>sé qué hacer. O sea, la IA ha tomado el<br>control total de este ordenador. Yo voy,<br>reinicio la DGX Spark, arranca y se<br>vuelve a pillar. Si le conecto un HDMI,<br>no veo nada. Le conecto un teclado un<br>rato, no puedo hacer nada. Me intento<br>conectar por SSH, no me contesta, o sea,<br>no me puedo conectar de ninguna manera.<br>No responde, o sea, está totalmente<br>muerta, ¿sabes? O sea, ahora mismo la IA<br>se acaba de cargar el aparato,<br>literalmente. Este, como estáis viendo,<br>es uno de los muchos peligros de la<br>inteligencia artificial. Al final, yo le<br>estoy dando acceso total a ese aparato.<br>Le digo, "Haz lo que quieras, instálate<br>esto, no me pidas permiso, tira millas."<br>y él pues empieza a instalar cosas y si<br>mete una [ __ ] como acaba de meter<br>ahora, pues básicamente lo puede<br>bloquear completamente. Pero bueno, en<br>el momento en el que estoy hablando con<br>vosotros, realmente el problema ya lo<br>tengo solucionado. Tengo que decir que<br>me asusté bastante, ¿vale? Pero al final<br>conseguí una solución y es que como os<br>dije, tengo también un Open Clow montado<br>en este portátil, ¿vale? Fue el primero<br>que monté de todos antes de la Spark,<br>por lo cual tengo dos Open Clow. Así que<br>lo que hice fue pedirle a este Open Clow<br>que intente recuperar el control de<br>aquel ordenador. ¿Vale? ¿Cómo lo<br>hicimos? Bueno, pues básicamente le di<br>el usuario y contraseña de SSH y le<br>dije, "Intenta conectarte." ¿Qué pasa<br>cuando yo me intento conectar? Pues no<br>me responde, ¿vale? Se queda pillado y<br>al final me dice time out. Y nada, la<br>verdad es que no conseguimos mucho<br>resultado, pero nos dimos cuenta a base<br>de reintentar, reintentar, reintentar<br>que cada x tiempo el proceso de VLM se<br>muere y hay un pequeño, bastante pequeño<br>lapso de tiempo en el cual el servidor<br>responde. Ese lapso de tiempo más o<br>menos, ahora no recuerdo cuánto eran,<br>pero eran como unos 10 segundos. Hay<br>unos 10 segundos en los cuales el DGX<br>Spark te contesta y puedes entrar y<br>ejecutar comandos. Al principio<br>intentábamos matar Docker porque no<br>sabíamos que no estaba en Docker, pero<br>no moría porque no había nada, o sea, no<br>sabíamos ni siquiera cómo se llamaba el<br>proceso que había lanzado, ¿vale?<br>Entonces, al final después de hacer<br>varias pruebas, conseguimos sacar el<br>nombre del proceso, ahí lo mandamos a<br>matar y el problema es que tal como se<br>lo montó, por mucho que lo mates, vuelve<br>a lanzarlo, pasan x segundos y de<br>repente pues el ordenador se vuelve a<br>quedar pillado porque se vuelve a cargar<br>toda la memoria. Así que al final para<br>poder vencerlo lo que hice fue, me<br>preparé un comando de mandar a matar al<br>VLM y le dije que lo repita cada un<br>segundo. Vale, esto lo hice directamente<br>en la basche. Eh, me lo puse ahí, o sea,<br>esperé a que se abra esa ventana<br>temporal y en esa ventana temporal,<br>boom, le metí el comando de, creo que<br>era killol VLM o algo por el estilo y<br>esto lo repetí cada segundo. Ahora, en<br>el momento que empecé a matarlo a cada<br>segundo, ahí el ordenador se pudo<br>liberar, me pude conectar por otro<br>terminal y ahí ya le quité el VLM, se lo<br>desactivé, que me costó incluso<br>descubrir cómo lo había montado, ¿vale?<br>No tenía ni idea de qué había hecho y<br>cuando conseguí desactivarlo, pues ya<br>recuperé el control de la Nvidia Spark.<br>Eh, y esa ha sido mi aventura con la<br>inteligencia artificial. Al final no<br>probé Minimx, eh, lo probaré otro día,<br>¿vale? otro día con más tiempo, pero yo<br>creo que hasta aquí hemos avanzado<br>suficiente para el vídeo de hoy. Y<br>bueno, chicos, aquí termina este<br>experimento. La verdad que me he llevado<br>una decepción muy grande, ¿vale? No os<br>voy a mentir. Creo que puede estar bien<br>usar OpenClock con un modelo local. Creo<br>que se puede llegar a hacer cosas.<br>Puedes llegar a usarlo para tareas<br>sencillas que estén como programadas y<br>que estén como bastante preconcebidas y<br>que sepan más o menos lo que tiene que<br>hacer. Pero para ser realmente<br>inteligente, para poder resolver<br>problemas un poco más complejos, para<br>que trabaje por ti y haga este tipo de<br>cosas, analice datos, saque<br>conclusiones, pues esto va a ser un poco<br>más complicado. Los modelos Frontier,<br>que es como se les llama a estos modelos<br>más avanzados que existen hoy en día,<br>lamentablemente no se pueden ejecutar en<br>un ordenador como este, ni en uno como<br>este, ni en ninguno que te puedas llegar<br>a montar en tu casa, yo creo. Estamos<br>hablando de que los servidores que tiene<br>Open AI, que tiene Anthropic, que tiene<br>todas estas empresas, son tan potentes<br>que están a una escala totalmente<br>distinta de los ordenadores que tenemos<br>nosotros en nuestra casa. Y es que<br>aunque tuviésemos esa potencia, los<br>modelos con los que trabajan ellos no se<br>parecen en nada a lo que nosotros<br>podemos descargar y utilizar. Lo más<br>parecido, a lo mejor, sería un eh<br>Deepsic, ¿vale? Dipsic sí que es un<br>modelo que te puedes descargar completo<br>y ejecutar en tu superordenador, pero<br>bueno, yo de momento no tengo un<br>superordenador en el que me quepa<br>depsck, aunque podría ser una idea para<br>un futuro vídeo. Y esto me preocupa<br>muchísimo porque siento que no nos<br>podemos saltar este paso, por lo menos<br>si queremos estar a la última. O sea, si<br>queremos tener la última tecnología,<br>aprovechar lo último de lo último, vamos<br>a depender 100% de todos estos servicios<br>externos. Servicios que se están<br>ejecutando en ordenadores que no son<br>nuestros. O sea, nosotros estamos<br>perdiendo el control de la máquina que<br>ejecuta el software. Y esto realmente no<br>es nuevo porque, bueno, sí que es verdad<br>que en cuanto a almacenamiento, en<br>cuanto a poner nuestros datos en<br>internet, es algo que llevamos haciendo<br>ya más de una década, ¿vale? utilizando<br>redes sociales, utilizando foros,<br>utilizando, bueno, todo este tipo de<br>aplicaciones que están 100% basadas en<br>internet. Pero es que ahora directamente<br>ya no tenemos ni siquiera la máquina que<br>ejecuta los cálculos, porque nuestros<br>ordenadores no son capaces, ni siquiera<br>tienen acceso a esos algoritmos que son<br>los que hacen ese tipo de tareas, por lo<br>cual nuestro ordenador se queda<br>simplemente como un dispositivo tonto<br>que se va a conectar a estos servicios,<br>los va a usar y y bueno, dependemos 100%<br>de ellos, dependemos de qué precio nos<br>quieran poner, de qué es lo que quieran<br>hacer con nuestros datos y esto, la<br>verdad, es algo que me pone bastante<br>triste y me preocupa, pero también<br>pienso que con el tiempo, con los años,<br>a medida que los modelos de inteligencia<br>artificial se vayan estabilizando un<br>poco, y ya no avancen más, pues poco a<br>poco el resto de tecnologías les irán<br>alcanzando hasta que llegará un día que<br>tengamos pues algún tipo de servidor que<br>podamos montar en casa con un precio<br>razonable y le podamos montar ahí pues<br>un modelo de inteligencia artificial que<br>no esté tan lejos de lo que tenemos pues<br>en empresas privadas, ¿no? Pero de<br>momento dependemos 100% de ellos hasta<br>que eso no pase. Bueno, pues son dueños<br>de todos nuestros datos, de todos<br>nuestros hábitos y nos están utilizando<br>sin ningún lugar a duda para mejorar su<br>producto. No tengo ninguna duda de esto.<br>Cualquier cosa que se te ocurra,<br>cualquier cosa que planees, cualquier<br>cosa que pienses, al final eventualmente<br>la inteligencia artificial va a acabar<br>integrándola dentro de su propio modelo,<br>¿no? Así que nada, gente, espero que os<br>haya gustado mucho este vídeo. Si os ha<br>gustado, ya sabéis, dejadme una manito<br>para arriba, suscribiros al canal y nos<br>vemos en el próximo vídeo.