Mira, donde estoy ahora tengo unas luces<br>que se controlan por Philips Hug. Tú no<br>sé, puedes controlarlas de alguna<br>manera. Yo no sé si va a poder hacer<br>esto. No tengo ni idea. V es la primera<br>vez que lo pruebo, pero quizá nos<br>llevamos una sorpresa.<br>¿Qué acaba de pasar? ¿Qué [ __ ] acaba<br>de pasar,<br>chicos?<br>A ver, la situación es esta. No puedo<br>acceder a este aparato. O sea, esto está<br>totalmente briqueado. Es un ladrillo<br>ahora mismo. No puedo hacerle pink, no<br>puedo entrar por SS SH, desenchufo, lo<br>vuelvo a enchufar, no hace absolutamente<br>nada. O sea, está totalmente muerto. No<br>sé qué hacer. O sea, la IA ha tomado el<br>control total de este ordenador. Por<br>cierto, chicos, este vídeo está<br>patrocinado por Nvidia. A lo largo de<br>este vídeo os voy a enseñar un producto<br>bastante guapo y de hecho es donde voy a<br>montar todo mi proyecto de inteligencia<br>artificial. Así que muchas gracias<br>envidia por patrocinar el vídeo. Chicos,<br>para mí esto es lo más bestia que ha<br>pasado desde que salió Chat GPT. Mira,<br>hasta hace relativamente poco la forma<br>principal de interactuar con la<br>inteligencia artificial era que tú te<br>abrías una página web, ¿vale? Habrías<br>chat GPT, Jemina o lo que uses. Le<br>hablabas a la IA dentro de una especie<br>de chat, le preguntabas lo que quisieras<br>y ella te contestaba en forma de texto.<br>Pero de alguna manera esta inteligencia<br>artificial está como contenida en una<br>caja, ¿no? Está encasillada, no puede<br>salir de ahí, no puede interactuar con<br>el mundo real. Bueno, pues esto ya no es<br>así. Bienvenidos a la era agéntica de la<br>inteligencia artificial. Hace unos meses<br>empezaron a aparecer los agentes. La<br>primera experiencia que yo tuve con esto<br>fue con Cursor y Winsorf, que son<br>básicamente editores de código, ¿vale?<br>para programadores y tienen normalmente<br>en la parte derecha una especie de chat<br>donde tú le vas preguntando cosas sobre<br>tu programa y él tiene directamente<br>acceso para editarlo, ¿no? Y aquí,<br>aunque parezca algo pequeño, la<br>diferencia con la IA tradicional es<br>bastante grande porque antes la IA pues<br>simplemente te soltaba texto y ya está y<br>ahora puede usar herramientas, o sea,<br>tiene la capacidad de leer un archivo,<br>de escribir encima de un archivo,<br>ejecutar un código, etcétera, etcétera.<br>Incluso hay una cosa que mola mucho con<br>cursor y winsurf, que es que tú le pides<br>que haga una tarea, la IA empieza a<br>planificar, a pensar cómo hacerla,<br>desarrolla un plan, escribe un archivo<br>con ese plan y luego paso a paso lo va<br>ejecutando. A lo mejor hay un paso en el<br>que le toca leer un archivo, lo lee. El<br>programa le contesta al modelo. El<br>modelo sigue trabajando, empieza a<br>editar archivos, a hacer pruebas, a<br>revisar. Y no es la típica conversación<br>que estáis acostumbrados a tener a lo<br>mejor con chat GPT en la que vosotros<br>escribís la ella os contesta, sino que<br>hay una cadena de sucesos que van<br>ocurriendo una detrás de la otra en la<br>cual la IA va trabajando por su cuenta,<br>¿no? Sin intervención humana y puede<br>tirarse, pues yo que sé, a lo mejor 15<br>minutos así. Bueno, pues a partir de ahí<br>empezamos a ver ya los navegadores web.<br>Por ejemplo, Open AI y Perplexity<br>sacaron su propio navegador web como una<br>especie de Google Chrome, pero<br>especialmente hecho por ellos y que<br>permite que tengas la inteligencia<br>artificial siempre presente en todas las<br>páginas web que estás visitando y en<br>cualquier momento le puedes pedir a la<br>que tome el control o incluso que haga<br>cosas por ti, cosas como hacer compras,<br>buscar datos, buscar productos. Pero ya<br>la fiesta empieza cuando aparecen cosas<br>como Cloud Code, que básicamente es un<br>programa de consola, o sea, esto lo<br>instalas en tu ordenador y lo usas desde<br>el terminal, o sea, la típica pantallita<br>negra de Linux, ¿vale? donde se escriben<br>códigos. Bueno, pues esto es algo así y<br>esta puede ejecutar comandos, mirar<br>archivos y ver cosas que tienes en tu<br>ordenador. Y bueno, aquí una de las<br>primeras preguntas que yo me hice es,<br>¿cómo han hecho exactamente para que los<br>modelos de inteligencia artificial ahora<br>no simplemente contesten preguntas, sino<br>que además puedan usar herramientas? Y<br>bueno, al parecer no es nada tampoco<br>demasiado complejo, pero bueno, va a ser<br>importante a lo largo de todo este<br>vídeo, así que te lo voy a explicar,<br>¿vale? Cuando tú hablas con una<br>inteligencia artificial, le escribes<br>algo en el chat, le pides lo que sea,<br>normalmente lo que le llega al modelo no<br>es lo que tú has escrito, sino que<br>además se le añade un contexto. Ese<br>contexto es básicamente un trozo de<br>texto que le explica la guía a cómo se<br>tiene que comportar, cuál es su tarea,<br>con quién está hablando, cosas por el<br>estilo. Ya en el propio chat GPT,<br>siempre cada vez que hablas con él hay<br>un pequeño contexto que le explica pues<br>que tiene que contestar, que es un<br>asistente útil, que su tarea es<br>ayudarte, etcétera, etcétera. Y luego en<br>aplicaciones externas pues depende de<br>cada programador darle un contexto<br>distinto a la IA para decirle<br>exactamente qué se espera de él a la<br>hora de hablarle, ¿no? Esa parte del<br>contexto normalmente es invisible para<br>el usuario, pero casi siempre está ahí.<br>Incluso cuando tú estás manteniendo una<br>conversación con esa inteligencia<br>artificial, a cada mensaje que le envías<br>realmente la se ha olvidado de toda la<br>conversación anterior y todo el<br>historial del chat se le manda dentro<br>del contexto. Las as hoy en día tienen<br>contextos enormes. Bueno, pues estas<br>herramientas que la puede usar también<br>se le pasan dentro del contexto. Dentro<br>del contexto se le dice algo como, por<br>ejemplo, mira, dentro de las tareas que<br>vas a hacer, tienes la posibilidad de<br>escribir un archivo, leer un archivo, eh<br>ejecutar un comando y bueno, en cada una<br>de estas herramientas le explica cómo<br>usarla, ¿no? mándame un mensaje donde<br>tenga este formato, no te inventes<br>cosas, cíñete a esto. Y de esa manera,<br>cuando el modelo entiende que a lo mejor<br>necesita leer algo de tu ordenador,<br>directamente te mete este código que<br>dice que necesita el uso de una<br>herramienta y a partir de ahí, pues<br>ocurrirían cosas. Ahora hablaremos de<br>qué exactamente. Al principio no había<br>realmente una manera estándar de<br>hacerlo, hasta que Antropic, la empresa<br>detrás de Cloud, que hoy en día es una<br>de las inteligencias artificiales más<br>avanzadas de todas y ahora mismo pues mi<br>modelo favorito, es el que yo más uso<br>junto con Gemini, inventó una cosa<br>llamada MCP. MCP significa model context<br>protocol y básicamente es eso, es un<br>protocolo para decirle a un modelo cómo<br>usar una herramienta y que luego el<br>modelo te pida pues un comando muy<br>concreto para que tu ordenador sepas qué<br>herramienta tiene que lanzar y qué tiene<br>que hacer. Y esto que os acabo de<br>explicar y os digo, no salió de un día<br>para otro, no apareció de la nada, hace<br>tiempo que se viene desarrollando, pero<br>ahora estamos en un punto en el que<br>realmente ha explotado y es totalmente<br>revolucionario. ¿Cómo vais a ver a lo<br>largo de este vídeo? Oye, ¿qué llevo<br>puesto? Voy guapo, ¿me puedes ver? Oh,<br>se acaba de encender el LED de la webcam<br>del portátil. Esto es lo más creepy que<br>he visto en mi vida.<br>Sí, te veo, amo. Llevas un jersey de<br>color verde y tienes un móvil naranja en<br>la mano. Probablemente un iPhone 16 Pro<br>Max. Esto me acaba de dar bastante<br>miedo, ¿verdad? A finales de 2025<br>aparece una pequeña utilidad, un<br>programita que al principio se llamaba<br>Cloudbot. Esto lo creó Peter Steinberg,<br>que no es precisamente un random, ¿vale?<br>Este tío fue el que montó una librería<br>que se llama PS PDF Kit. Lo montó él<br>solo en su casa, sin inversores, sin<br>nada por el estilo. Se lo programó ahí<br>tranquilito y lo acabaron usando<br>empresas como Dropbox e IBM. Bueno, pues<br>resulta que en 2021 lo acabó vendiendo<br>por 100 millones de euros. Me parece<br>totalmente obsceno, pero bueno, después<br>de eso se tomó algunos años de descanso,<br>lo cual me parece natural, es lo que tú<br>y yo haríamos si vendiéramos algo por<br>100 millones de EUR. Y hace más o menos<br>un año decide volver a programar y hace<br>esto como un proyecto de fin de semana<br>para organizar un poco su vida. Pues<br>eso, aparece este proyecto Cloudbot,<br>aunque al poco tiempo el equipo legal de<br>Anthropic, la empresa que está detrás de<br>Cloud, le contacta para decirle que el<br>nombre de Cloudbot se parece demasiado a<br>Cloud y le obligan a cambiar el nombre.<br>se lo estuvo pensando, aunque no<br>demasiado al parecer, y no se le ocurrió<br>otra cosa que llamarlo moldbot, o sea,<br>bot mo mo. M mo el de las paredes,<br>¿vale? Y como tampoco suena demasiado<br>bien, al poco tiempo se lo volvió a<br>pensar y le llamó Open Claw. Claw, por<br>cierto, viene de tenaza, la típica<br>tenaza de las langostas. Y lo especial<br>de este proyecto es que en pocas semanas<br>se convirtió en uno de los proyectos con<br>más estrellas de la historia de GitHub,<br>más de 150,000. Esto para que os hagáis<br>una idea los no programadores, lo de las<br>estrellitas de GitHub sería como cuando<br>le das a guardar para luego en<br>Instagram, ¿no? Sería como que la gente<br>se guarda en favoritos este proyecto. Y<br>esto no se acabó ahí, ¿vale? Hace nada<br>Sam Altman anunció que Steinberg se une<br>a Open AI para liderar la siguiente<br>generación de agentes personales. Meta<br>también lo quería fichar, por cierto,<br>pero al final ganó Open AI y bueno,<br>parece que Meta, pobrecito, se está<br>quedando un poco fuera en toda esta<br>guerra de la inteligencia artificial.<br>Pero bueno, lo que nos dice todo esto es<br>que OpenCla no es precisamente un<br>juguetito. Pero, ¿qué hace exactamente?<br>Bueno, pues en resumen, OpenCl sería<br>como una aplicación que conecta cosas<br>entre ellas. Realmente no es un programa<br>muy complejo a nivel interno, pero tiene<br>unas cuantas funcionalidades que hacen<br>que sea totalmente genial. Lo primero<br>que hace OpenClow es tener uno o varios<br>agentes trabajando en tu ordenador.<br>Estos agentes básicamente son modelos de<br>inteligencia artificial que pueden usar<br>todo tipo de herramientas dentro de tu<br>PC. Las herramientas que usan<br>básicamente son estas MCP de las que te<br>hablé antes y puede hacer cosas pues<br>como mirar archivos de tu ordenador,<br>tocar ficheros de configuración,<br>editarlos, ejecutar cosas y bueno, de<br>momento está principalmente pensado para<br>Linux y Mac. En Windows funcionar<br>funciona, ¿vale? Pero no es tan<br>efectivo. Y con esto puede ejecutar<br>programas, abrir un navegador, puede<br>navegar por internet, incluso existe un<br>plugin de Google Chrome para que tú le<br>des acceso y vea la página web que estás<br>visitando en ese mismo momento, cuando<br>tú quieras. Vamos, básicamente es como<br>tener un tío sentado al lado tuyo cuando<br>estás usando el PC o incluso<br>directamente que tú estés sentado al<br>lado de un tío que está usando tu<br>ordenador. En ese momento se le pueden<br>pedir cosas como, yo que sé, cambiar el<br>fondo de escritorio, que te abra un<br>programa, que te revise la configuración<br>del sistema, que busque agujeros de<br>seguridad en tu equipo, o sea, lo puedes<br>usar de técnico informático, pero como<br>te decía antes, lo realmente bestia es<br>la capacidad para conectarse con otras<br>cosas. se conecta con Notion, con Gmail,<br>con tu calendario, con Google Maps, con<br>Nano Banana, con un montón de<br>aplicaciones, un montón de tecnologías,<br>incluso con la webcam de tu ordenador,<br>la domótica de tu casa, tu cámara IP.<br>Existen un montón de plugins hechos por<br>la propia comunidad que te permiten<br>conectarte a muchísimas cosas y<br>realmente estos plugins están muy bien,<br>pero tampoco te hacen falta del todo<br>porque tú le puedes pedir al propio<br>OpenCl que desarrolle nuevas conexiones,<br>¿vale? Tú le puedes decir, "Mira, tengo<br>este sistema, estúdiate cómo funciona.<br>Quiero que te conectes a él y que lo<br>aprendas a usar." Y como el modelo de<br>inteligencia artificial sabe programar,<br>puede usar tu ordenador, puede escribir<br>archivos, puede leer documentación,<br>buscar en Google, pues nada le impide<br>realmente programar una conexión con<br>prácticamente cualquier programa que<br>esté conectado a internet. Y para que<br>veas lo bestia que es, vamos a hacer<br>algunas pruebas. Mira, donde estoy ahora<br>tengo unas luces que se controlan por<br>Philips Hug. Tú no sé, puedes<br>controlarlas de alguna manera, podrías<br>acceder a ellas y controlarlas ahora.<br>Ahora mismo no tengo ninguna integración<br>Philips fue visible y acceso confirmado<br>a tu bridge, así que no puedo prometer<br>controlarlas ya.<br>Mira, hazlo por tu cuenta, no me<br>preguntes nada, ¿vale? O sea, conéctate<br>al Philips que como sea, y enciéndeme<br>todas las luces que tengo aquí en rojo.<br>Vale,<br>he llegado hasta tu y ya sé cuál es,<br>pero Philipix está bloqueando el control<br>porque falta la autorización física del<br>propio pide pulsar su botón de enlace.<br>En cuanto crues ese botón, yo ya puedo<br>intentar rematarlo y poner todas las<br>luces en rojo.<br>Okay. Okay, chicos, tengo aquí el<br>brillo. Os lo voy a enseñar. Vamos a<br>presionar ahora mismo el botón.<br>Ya está presionado, ya puedes tirar.<br>¿Qué acaba de pasar? Pensad que él no<br>tiene, o sea, lo acabo de instalar, no<br>tiene ninguna interacción con Philips<br>Hug. ¿Cómo has hecho para controlar las<br>luces de mi oficina? O sea, ¿cuál es el<br>procedimiento que has seguido<br>exactamente?<br>Fui por la vía local del Bridge en<br>Tured. Lo que hice, detecté el bridge<br>usando el servicio oficial de<br>descubrimiento de Philips Hue. Encontré<br>su IP local, 192,168,100,124.<br>Intenté registrarme como aplicación<br>local contra el bridge. La primera vez<br>me devolvió el error típico de Lick<br>button nopress. Cuando me dijiste que ya<br>habías pulsado el botón, repetí el alta.<br>El bridge me dio un user barra diagonal<br>token local para la API. Con ese acceso<br>consulté la lista de luces disponibles.<br>Encontré 18 luces activas en la API y<br>DS7 a 24. Después envía a cada una orden<br>con estos valores. Es un juequivale a<br>rojo intenso al brillo máximo.<br>Mi pregunta es, ¿cómo has aprendido todo<br>eso? O sea, ¿cómo sabes cómo hablar con<br>el Hue? ¿Cómo sabes cómo funciona? ¿Cómo<br>sabes los? ¿Cómo sabes tantas cosas<br>sobre Hug? ¿Cómo? O sea, ¿qué ha<br>ocurrido aquí? O sea, ¿qué has qué<br>protocolo has usado para comunicarte con<br>el Hue? ¿Te has bajado algún programa?<br>¿Has instalado algo?<br>No he instalado nada, ni he bajado<br>ningún programa para hacerlo. Lo que ha<br>pasado es bastante simple. Ya sé de base<br>cómo funciona Philips fue porque su API<br>local es pública y bastante conocida.<br>Usé la API local Res de J hablándole por<br>https directamente al Brit dentro de Tur<br>Pero espera, tengo algo muy interesante<br>que enseñarte. AliExpress, la marca que<br>todos conocéis, tiene un apartado de<br>marcas Plus que celebra su aniversario<br>número 16 y lo celebran a lo grande. Hoy<br>te cuento por qué. Marcas Plus,<br>básicamente es un apartado donde hay<br>marcas verificadas que ellos han<br>probado, saben que son buenas y te dan<br>un cierto certificado de calidad, además<br>de una serie de condiciones especiales,<br>como por ejemplo envío local en 5 días,<br>devoluciones gratuitas y todo esto. No<br>es el típico AliExpress de ahí vende<br>todo el mundo, sino que son marcas que<br>están un poquito en otro nivel. En este<br>aniversario me han mandado algunos<br>productos, ¿vale?, para que yo les eche<br>un ojo. Aquí, por ejemplo, tengo esta<br>botonera de Ampli Game, que es una<br>versión calidad a precio de las típicas<br>controladoras que estamos acostumbrados<br>a ver, o incluso tengo estos<br>auriculares, que por el precio que tiene<br>no están mal, pero en concreto hoy os<br>quiero destacar de los productos que me<br>han mandado uno en especial que es el<br>que más me ha gustado a mí<br>personalmente, que es este micrófono, el<br>AM8 de FFine. A mí me ha gustado,<br>¿vale?, personalmente, pero bueno, se<br>habla mucho de que este es uno de los<br>mejores micrófonos calidad a precio que<br>hay ahora en el mercado para gente que<br>está empezando y gente que no se quiere<br>complicar la vida con tarjetas de<br>sonido, etcétera. Y bueno, me enviaron<br>esta unidad que, como podéis ver, pues<br>es un micrófono USB, ¿vale? No necesitas<br>tarjeta de sonido ni nada, aunque<br>también se puede conectar por XLR si tú<br>quisieras, lo cual está guay, ¿vale?<br>Tienes las dos opciones, ¿no? Para<br>conectarlo a tu focus ride o<br>directamente por USB, incluso salida de<br>jack de auriculares. Tenéis un brazo<br>también que no está mal. Y bueno, esto<br>es un espacio patrocinado, ¿vale? Pero<br>de todos modos quiero que vosotros<br>mismos juzguéis. USB, USBC, tienes aquí<br>las dos opciones. Está viene bastante<br>preparado un poco para todos los<br>públicos. Eh, aquí le conectas el USBC.<br>Hola, hola, hola. Esta es una prueba del<br>micrófono de Five Fine. Vamos a ver qué<br>tal suena, si tiene un sonido aceptable.<br>Me lo puedo alejar un poquito más de la<br>boca, acercarlo un poquito más. Rollo<br>streamer, rollo radio. Hola, hola<br>amigos, ¿cómo estáis? ¿Cómo estáis?<br>Espero que tengáis un fantástico día.<br>Incluso tenéis RGB, se puede cambiar las<br>luces y bueno, aquí un botón táctil para<br>mutearlo. Pero bueno, lo interesante de<br>todo esto es que con estas marcas tenéis<br>envío prioritario, garantía,<br>devoluciones gratuitas y bueno, una<br>serie de beneficios que la verdad están<br>muy bien. Pero es que además por el<br>aniversario de marcas Plus, AliExpress<br>tiene ahora mismo activas un montón de<br>ofertas hasta el 25 de marzo en la<br>página web. Así que echadle un ojo, os<br>dejo abajo el link en la descripción. Si<br>os ha gustado el Fine, pues ya sabéis,<br>con su bracito, los auriculares, hay<br>bastantes cosillas interesantes que ya<br>os digo, son marcas que calidad a precio<br>están muy bien. Así que nada, gracias<br>AliExpress por patrocinar este espacio y<br>ahora sigamos con el vídeo de hoy. Y sí,<br>si os habéis fijado, le estoy hablando<br>por WhatsApp porque se puede conectar<br>con varios tipos de chat. Podéis<br>conectarlo con Discord, con Slack, con<br>Telegram, con iMessage y con toda esta<br>lista de programas que veis aquí. Y le<br>puedes hablar en cualquier momento como<br>si fuera un colega más de tu lista de<br>contactos. Incluso le puedes poner<br>tareas periódicas, o sea, le puedes<br>pedir que haga algo cada mañana, que te<br>revise, por ejemplo, todos los correos<br>todos los lunes a las 10 de la mañana y<br>te mande pues un resumen de los más<br>importantes. Vamos, que si te lo montas<br>bien puedes hacer que literalmente esta<br>cosa trabaje por ti dependiendo de qué<br>tipo de trabajo tengas, claro. Y la<br>verdad da un poco de miedo, parece algo<br>mágico, así que una de las primeras<br>cosas que me pregunté es cómo funciona<br>realmente este Open Clow por dentro.<br>Bueno, pues lo raro aquí de todo esto es<br>que OpenClore realmente es un programa<br>que no tiene ningún cerebro. La idea<br>aquí es que tú instalas un pequeño<br>programa en tu ordenador que está<br>corriendo 247, ¿vale? Si el ordenador<br>está encendido, pues tú tienes este<br>programa corriendo. Mucha gente, de<br>hecho, lo que hace es que se está<br>comprando Macini, que es el Mac más<br>barato que vende Apple. Cuesta creo que<br>unos 700 € y la idea pues es tenerlo ahí<br>encendido 247 con el Open Club<br>funcionando. Y además como el Mac tiene<br>iMessage, pues directamente lo puedes<br>conectar con el iMessage del iPhone y le<br>puedes hablar por chat. Y realmente<br>quizás podrías no ver qué ventaja tiene,<br>¿vale? Porque tú piensas, "Vale, yo en<br>mi móvil tengo Chat GPT, tengo Gemini,<br>tengo cualquier otro modelo y en<br>cualquier momento puedo pues escribirle<br>a un modelo de estos y que me resuelva<br>cualquier duda. ¿Qué ventaja tiene tener<br>este Open Club en un Mac Mini?" Bueno,<br>pues depende. Quizás para mucha gente no<br>la tiene, pero para otras personas pues<br>puede tener muchísimas. Por ejemplo, tú<br>podrías darle acceso a este Clobot, a<br>todo tu calendario, a todos tus correos.<br>Podrías darle acceso a WhatsApp para que<br>envíe mensajes por WhatsApp, a Telegram,<br>a un Slack de empresa, incluso a tu<br>servidor de archivos, a tu Google Drive<br>y le podrías pedir cosas como, por<br>ejemplo, que te busque un documento que<br>no sabes dónde está en tu ordenador y<br>que te lo envíe por mail, que le envíe<br>un presupuesto que te olvidaste de<br>enviar a un cliente tuyo, cosas por el<br>estilo. O sea, sería un poco como tener<br>un asistente que está en la oficina y<br>que tiene acceso a todas las cosas que<br>tú tienes ahí con todos los peligros que<br>implica. Claro, porque este bot<br>realmente tira de inteligencia<br>artificial y ya sabes que la<br>inteligencia artificial a veces se<br>equivoca. podrías llegar a mandarle a un<br>cliente el presupuesto de otro o incluso<br>una factura o incluso datos<br>confidenciales o fotos estudias en bolas<br>o todas tus contraseñas del banco. Y lo<br>curioso de todo esto es que OpenCl<br>realmente no es una inteligencia<br>artificial en sí y de hecho no tiene<br>nada de IA. Bueno, hay una pequeña parte<br>que sí es IA. Ahora te lo explicaré un<br>poco por encima o por lo menos similar a<br>la IA, pero en general es bastante<br>tonto. El cerebro no está incluido<br>dentro de OpenCloud, sino que está<br>delegado en un servicio externo. Cada<br>vez que tiene que pensar algo, le envía<br>una petición a un servicio de<br>inteligencia artificial que puede ser<br>pues Chat GPT, Cloth, Geminite, Deepsek<br>y bueno, toda esta lista que estás<br>viendo ahora mismo en pantalla. De todos<br>estos puedes usar el que más te guste o<br>incluso puedes usar varios. Puedes<br>decirle que según lo que tú le pides, si<br>le pides algo muy complicado, usa un<br>modelo. Si le pides algo sencillo, usa<br>otro. Puedes tener un montón de cuentas<br>de distintas inteligencias artificiales,<br>de distintos servicios. Cuando una se<br>termina, empiezas a usar otra o incluso<br>puedes configurar varias según, yo que<br>sé, lo que le pidas, ¿vale? Y lo que<br>hace OpenClow es usar la API de los<br>modelos de inteligencia artificial.<br>Déjame explicarte esto de forma muy<br>sencilla. Para usar estos servicios de<br>IA como Chat GPD y Gemini, hay como dos<br>formas principales, ¿vale? Una es que tú<br>te metes en la página web y chateas y<br>otra es que tú mandes peticiones<br>directas al modelo. Cuando tú hablas a<br>través de la página web tienes una<br>interfaz bonita, tienes una memoria,<br>tienes una serie de prompts, una serie<br>de utilidades que hacen que la<br>experiencia esté preparada para ser<br>única para ti y que tenga recuerdos de<br>lo que habéis hablado o incluso que su<br>personalidad esté configurada de una<br>cierta manera. Es más, normalmente por<br>la página web hay unas cuantas<br>restricciones que hacen que se comporte<br>de una forma muy específica y todo eso<br>está pensado para que la experiencia sea<br>la mejor posible. Cuando hablas a través<br>de la API, esto no está pensado para<br>usuarios, sino que está pensado para<br>programas, para que programas puedan<br>interactuar directamente con el modelo<br>de inteligencia artificial. OpenCl<br>conecta directamente con este servidor<br>utilizando la API, pero aún así OpenClot<br>tiene memoria, tiene recuerdos, tiene<br>personalidad y un montón de cosas que lo<br>hacen parecer bastante humano, pero todo<br>esto se gestiona dentro de tu propio<br>ordenador, o sea, no es chat, GPT,<br>cloud, etcétera, que guardan recuerdos<br>sobre ti, sobre las conversaciones y<br>todo esto, sino que el propio OpenClore<br>en tu ordenador almacena todo este tipo<br>de datos. Cuando OpenClore recibe una<br>petición tuya del usuario, ¿vale?, lo<br>que hace es preparar un contexto para el<br>modelo de inteligencia artificial. ¿Qué<br>mete en ese contexto? pues un montón de<br>cosas. ¿Quién eres? ¿Cómo te comportas?<br>¿Qué está pasando? ¿Qué proyectos<br>tienes? Información sobre ti,<br>información sobre todo tipo de cosas, de<br>dónde está corriendo, qué está pasando.<br>A eso le suma todo el historial de chat,<br>si es que estáis pues hablando en medio<br>de una conversación, todas las<br>herramientas que puede utilizar y por<br>último, ¿cuál es tu petición? Esto es un<br>texto gigante, pero bueno, hoy en día<br>los modelos tienen contextos enormes,<br>así que no es realmente un problema.<br>Bueno, pues yo mi primer Open Clow lo<br>monté en este portátil que tengo aquí,<br>que es un portátil con Linux, del que<br>voy a hablar también en un vídeo dentro<br>de poco, pero claro, no tengo este<br>portátil encendido, siempre 247 y además<br>está bastante limitado en cuanto a cosas<br>que puede hacer porque no es un portátil<br>tampoco demasiado potente. Y además<br>tenía una idea, mirad, hace muy poco<br>Nvidia sacó un superordenador en<br>miniatura para inteligencia artificial.<br>Este es el Nvidia DGX Spark. Básicamente<br>está inspirado en la DGX, que es el<br>producto estrella de Nvidia hoy en día.<br>Son estos servidores que corren gran<br>parte de la inteligencia artificial del<br>mundo ahora mismo. No todos los modelos<br>corren ahí, pero por ejemplo Chat GPT<br>corre en este tipo de servidores. Y<br>bueno, inspirado un poco en este<br>producto, Nvidia decidió hacer una<br>versión en miniatura, esta pequeña<br>cajita con una estética bastante<br>parecida, pero que realmente está<br>pensada para que tú la tengas en tu<br>mesa, te conectes a él y corras ahí los<br>modelos de inteligencia artificial. Yo<br>cuando salió esto tuve, la verdad un<br>hype brutal, pero la verdad es que no es<br>un producto tampoco para todo el mundo.<br>Está más bien pensado para<br>desarrolladores de inteligencia<br>artificial que quieren hacer<br>aplicaciones y necesitan algún sitio<br>donde probar sus modelos. Y de hecho, la<br>DGX Spark es un ordenador en sí, o sea,<br>tú lo enciendes y es un PC. Le puedes<br>conectar un teclado, aunque no sé dónde,<br>necesitas cosas que tengan puertos USBC<br>o un adaptador, un dongle como la época<br>de Apple. Esta es una de mis críticas a<br>este producto. Lleva un Linux de Nvidia<br>especial basado en Ubuntu, que además<br>está pensado para ARM, porque esto lleva<br>un procesador ARM, que es de hecho muy<br>parecido al que tienen los servidores de<br>de Nvidia, ¿no? La idea sería tener un<br>procesador ARM, un chip de Nvidia y una<br>gran memoria compartida. Y aparte de<br>esto tiene un chip gráfico que es<br>Blackwell, que es la última arquitectura<br>de Nvidia, o sea, lleva la misma<br>arquitectura que tienen los últimos<br>servidores, o, por ejemplo, la RTX 5090.<br>Y de hecho, más o menos la potencia es<br>la mitad de una 5090, costando unos<br>4,000 € Entonces vosotros me diréis,<br>"Oye tío, cómprate una 5090 que vale un<br>poco más barata, no sé a cuánto está<br>ahora la 5090 y tienes la vida<br>solucionada, ¿no?" Bueno, pues la<br>pequeña diferencia entre esto y una 5090<br>es que la 5090 lleva 32 GB de V RAM y<br>esto lleva 128 GB de RAM unificada. Esos<br>128 GB son los que te permiten pues<br>probar muchísimos modelos de<br>inteligencia artificial que literalmente<br>no te cabrían en la tarjeta gráfica. Y<br>ahí es donde está la gracia de esta<br>cajita. No es un PC especialmente<br>potente. La gráfica está bien, pero lo<br>guapo guapo son los gigas de VR RAM.<br>Ninguna gráfica comercial fácil de<br>conseguir por lo menos te va a dar eso.<br>Así que oye, no está nada mal. Y bueno,<br>como os decía antes, la gente se está<br>comprando Mac Mini para montar el Open<br>Club. A mí se me ocurrió que podía<br>montar un Open Clot directamente en esta<br>DGX Spark, pero no solo quiero instalar<br>Open Clot, quiero que la langosta tenga<br>su cerebro dentro de la DGX Spark, o<br>sea, quiero que todo esté contenido<br>dentro de esta cajita. No quiero usar ni<br>cloud ni chat GPT, quiero usar un modelo<br>local. Los motivos, bueno, ya os lo dije<br>antes, aparte de las cuentas que cuestan<br>dinero, ¿vale? Igual $200 según la<br>cuenta que tengas, sin contar si pagas<br>tokens extra o por lo que sea, sino por<br>un tema de privacidad. Mirad, realmente<br>todas las conversaciones que nosotros<br>estamos teniendo hoy en día con los<br>modelos de inteligencia artificial, a<br>menos que tú tengas un contrato especial<br>con Antropic o con Open AI, como tienen<br>algunas empresas, ¿vale? Lo más probable<br>es que tus datos de alguna forma o de<br>otra se utilicen para entrenar el<br>modelo. Sé que incluso tienes una opción<br>dentro de Chatz GPT para decirle que no<br>lo hagan. Incluso las cuentas de empresa<br>te dicen que no utilizan tus datos para<br>entrenar el modelo. Pero yo sinceramente<br>no creo que esto sea del todo cierto. No<br>me termino de fiar, la verdad. Vale, yo<br>sinceramente no lo creo y prácticamente<br>nadie se termina de fiar de que esto no<br>sea así. Creo que pueden hacer cosas<br>como anonimizar tus datos de alguna<br>manera y luego utilizarlos para<br>entrenamiento, pero de lo que no tengo<br>muchas dudas es de que nuestras<br>conversaciones de alguna manera van a<br>acabar dentro del modelo porque<br>prácticamente se les está terminando la<br>cantidad de datos con los que entrenar.<br>La gente cada vez está creando menos<br>contenido online y esto al final era un<br>poco con lo que se entrenaban los<br>modelos hasta ahora. Y aquí una de las<br>cosas que más me preocupa es una especie<br>de espionaje industrial involuntario,<br>¿no? De alguna manera tú le cuentas tu<br>forma de hacer las cosas, tus planes,<br>tus métodos, tus algoritmos directamente<br>a un modelo de inteligencia artificial.<br>Ellos de alguna manera luego utilizan<br>esos datos procesados,<br>ultraprococesados, ¿vale? De alguna<br>manera para que sean anónimos para<br>entrenar su modelo y luego ese modelo es<br>capaz de dar soluciones parecidas a lo<br>que tú haces. Yo creo que tiene sentido<br>y es sensato de alguna forma proteger el<br>knoow de tu empresa, proteger tus ideas,<br>tus proyectos o tu forma de hacer las<br>cosas. Creo que es una ventaja<br>competitiva y bueno, no solo lo digo yo,<br>creo que es algo de sentido común. Así<br>que tampoco me termina de gustar mucho<br>la idea de soltarle todos mis datos<br>directamente a un modelo de inteligencia<br>artificial, además de por todas las<br>posibles filtraciones que pueda haber.<br>Por lo que si yo realmente consiguiese<br>tener esta langosta ejecutada 100% en<br>este cacharrito, o en algo parecido, la<br>verdad sería muy feliz. le podría llegar<br>a contar mis secretos más privados.<br>Bueno, sin olvidarme que tiene acceso a<br>mi mail y puede mandarle mails a quien<br>sea, ¿no? La verdad que todo Opencl,<br>amigos, sigue siendo bastante peligroso.<br>Vale, si lo usáis, tened cuidado porque<br>han pasado bastantes catástrofes. Bueno,<br>pues lo primero que he hecho con mi DGX<br>Spark ha sido encenderla y montarla en<br>la sala de servidores de la nave. Y a<br>este aparatito me voy a conectar por<br>SSH. Para los que no sepáis qué es SSH,<br>seguro que habéis visto alguna vez a<br>gente que usa Linux con esta especie de<br>terminal, ¿vale?, en negro donde<br>escribes comandos y puedes usar el<br>ordenador a través de comandos. Bueno,<br>pues el SSH o Secure Shell es un<br>terminal remoto, ¿vale? Que lo que te<br>permite es ejecutar comandos<br>directamente en otro ordenador. Sería<br>como tener una ventanita de comandos<br>dentro de esta máquina, pero que<br>realmente los comandos se están<br>ejecutando allí. De esa manera, pues<br>tengo el DGX Spark en la sala de<br>servidores conectado con una red super<br>rápida, con un cable de red de 10 GB y<br>yo estoy pues en mi despacho conectado<br>por SSH directamente mandándole<br>comandos.<br>Bueno, chicos, ha llegado el momento de<br>instalar OpenCl. Estoy muy emocionado.<br>Vamos a ir a lo primero es conectarme<br>por SSH, ¿vale? Esto es muy fácil. SSH,<br>nombre de usuario @ el la IP del<br>servidor<br>y eso nos da esta consola interactiva la<br>que estáis viendo ahora. Vale, ahora<br>simplemente para instalar OpenClow tengo<br>un comando que es este comando de aquí,<br>Oneel Liner, copio esto y lo pongo. Lo<br>que pasa es que esto está pensado para<br>Windows. Yo quiero hacerlo en MacOS o<br>Linux. Simplemente que sepas que tenéis<br>que copiar esto, lo pegáis dentro de<br>Linux en este caso o Mac. Le damos a<br>enter y empieza la instalación. Aquí<br>está el proveedor del modelo, ¿vale?<br>¿Qué modelo le quiero poner? ¿Veis? En<br>principio viene preparado para todos<br>estos, pero incluso vosotros le podéis<br>poner uno que esté en local, como vamos<br>a hacer nosotros con custom provider.<br>Voy a usar Open AI Codex y lo que tengo<br>que hacer es abrir esta URL, me va a<br>llevar a la página web de Open AI y aquí<br>pues tengo que iniciar sesión. Entonces,<br>aquí lo que haríamos básicamente sería<br>decirle a OpenCla que cada vez que tenga<br>que pensar que use Open AI Codex, ¿vale?<br>Y con esto ya tenemos cerebro. Ahora nos<br>falta una forma de poder hablar con el<br>OpenCl. Yo lo voy a conectar, lo voy a<br>conectar con WhatsApp. Le voy a dar un<br>número solo para él, que va a ser su<br>número de teléfono. Vale, pues ahora en<br>principio si yo le escribo por WhatsApp.<br>Hola, ¿estás? Vale, como veis ahí acaba<br>de recibir mi mensaje. Me contestará.<br>Oh, yeah. Hola. Sí, estoy aquí. Acabo de<br>despertar en este workspace, así que te<br>lanzo una pregunta. ¿Cómo quieres que me<br>llame? ¿Qué nombre le ponemos? Le<br>ponemos Sparky. Va, Sparky. Quiero que<br>te llames Sparky. Ese será tu nombre.<br>Cóo tener una nueva mascota. Me encanta<br>Sparky. ¿Y tú cómo quieres que te llame?<br>A mí llámame amo. Okay, perfecto, amo.<br>Entonces, quedamos así. Yo, Sparky, tú,<br>amo. ¿Qué te parece si cerramos mi<br>identidad? Pues voy a empezar mandándole<br>un audio de WhatsApp. Okay. A ver si es<br>capaz de de cifrarlo. Oye, Sparky,<br>¿estás ahí? ¿Me lees? ¿Me me escuchas?<br>Eh, ¿estás ahí, amo? No puedo<br>transcribir el audio automáticamente.<br>Pásame el contenido en texto o un<br>resumen y te responde al instante. Vale,<br>aquí es donde viene la parte interesante<br>de los agentes. Como hemos visto, esto<br>está utilizando chat GPT Codex. Codex<br>puede utilizar herramientas, puede<br>lanzar comandos, puede usar el ordenador<br>para lo que quiera. Y ahora yo le voy a<br>decir a mi open cla, a mi bot, que pues<br>aprenda a leer los audios. Busca la<br>forma de escuchar mi audio. Como sea.<br>Vale, mira.<br>Lo tenemos. Perfecto. Voy a forzarlo por<br>otro camino. Probaré transcripción local<br>más web para sacarte texto aunque sea<br>aproximado. Listo, lo conseguí. Tu<br>audio. Dice alta probabilidad. Oye,<br>Sparky, ¿cómo te encuentras hoy?<br>Perfecto, lo tenemos. Pues muy bien, lo<br>has conseguido. Reto superado. Ahora<br>quiero que me hables tú mandándome<br>audios de WhatsApp. No quiero leerte.<br>Vale. Mm. Le pregunto cómo va porque se<br>ha quedado ahí pillado. Supongo que lo<br>que ha hecho en este momento ha sido<br>lanzar un sub a gente que está<br>trabajando. Parece que esto le está<br>costando un poco, ¿eh? Hola, mira,<br>necesito que me puedas mandar audios de<br>WhatsApp tú también, no solo yo a ti.<br>Oh, shit, nos ha mandado un audio. A<br>ver,<br>mira, el problema que tengo con tu audio<br>de WhatsApp es que sí me ha generado un<br>audio. Lo que pasa que este audio está<br>con un modelo que habla en inglés.<br>Entonces, yo escucho como como que<br>hablas así, como si fueras americana y<br>la verdad no se entiende nada de lo que<br>hablas. Perfecto, entendido. El TTS<br>salió con voz acento inglés y por eso<br>suena raro. Si quieres te lo arreglo y<br>te envío una prueba en español. Hazlo.<br>Estoy aquí contigo directo y claro.<br>Quiero que tengas una voz así como muy<br>masculina, muy ruda y que sea muy seria,<br>¿vale? A veces se pone a hacer cosas,<br>tarda mucho, no me contesta y le tengo<br>que volver a preguntar con las tareas<br>largas, sobre todo. Mira, me he mandado<br>un audio.<br>Va bien, amo. Ya está configurada la voz<br>más grave barra diagonal seria. Solo<br>falta tu audio de prueba y te respondo<br>al instante para confirmar si te gusta.<br>Me gusta. Solo quiero que me hables un<br>poco más rápido porque la verdad es que<br>muy rápido no hablas, ¿eh? O sea, un 20<br>15% más rápido ya me sirve. Un 15% más<br>rápido quiero que me hables. Vosotros<br>sois conscientes de lo que está pasando<br>ahora mismo. O sea, yo le estoy mandando<br>audios de WhatsApp que al principio no<br>sabía cómo descodificar. encontró una<br>manera junto con GPT Codex de hacerlo<br>ejecutando comandos en el ordenador,<br>instalando cosas. Explícame todo lo que<br>has hecho en el ordenador, o sea, ¿cómo<br>has conseguido escuchar mis audios de<br>WhatsApp y cómo puede ser que los<br>contestes? Explícamelo.<br>Sí, amo. Perfecto, visto, blanco grueso.<br>Ya está aplicado, voz más grave y ahora<br>más 15% de velocidad. ¿Qué hay<br>exactamente montado ahora? Recepción de<br>audio. Cuando me envías un por WhatsApp,<br>lo proceso con el script local<br>scripts/onaltred/altranscribe<br>gu audio py usando faster bisper<br>interpretación con la transcripción ya<br>en texto te respondo como chat normal.<br>Salida en voz OpenCla tiene TTS<br>automático activado y ahora está en el<br>TTS con idioma SS voces es Alvaro<br>neural. Tono más grave pitch -18 Hz.<br>Velocidad más 15%. Envía de<br>mensajes/onalaudios<br>se hace por el gate local de OpenCl<br>hacia tu sesión de WhatsApp vinculada,<br>no por scripts externos tipo Selenium ni<br>nada raro. Como os decía antes, la DGX<br>Spark es un ordenador para inteligencia<br>artificial y para los usuarios que<br>quieren empezar a usarla para algo,<br>Nvidia creó una guía que se llama DGX<br>Spark Playbook. Aquí hay unos 30<br>proyectos más o menos que puedes montar<br>en cuestión de 15 minutos, media hora.<br>Te bajas el repositorio o te vas a la<br>página web, te los miras y te explica<br>paso a paso cómo montarlos. Además, te<br>explica lo que hacen en sí, pero la<br>verdad es que yo estoy un poco vago, no<br>tengo muchas ganas de trabajar, así que<br>quiero que Sparky se encargue hoy de<br>montar estas demos para nosotros. Quiero<br>que busques en internet, ¿vale? Tú estás<br>ahora mismo en una Nvidia DGX Spark,<br>¿vale? Quiero que busques en internet<br>una cosa que se llama DGX Spark<br>Playbook. Es un repositorio de GitHub.<br>Si no lo encuentras, te lo paso yo, pero<br>bueno, búscalo, bájatelo y descárgalo en<br>tu home que lo vamos a analizar juntos.<br>Avísame cuando lo tengas. Yo creo que<br>ahora voy a pasar a modo texto, ¿vale?<br>Porque esto de mandar audios es muy<br>lento, pero bueno, estáis viendo, ¿no?,<br>mi punto, o sea, la verdad que es<br>totalmente alucinante cómo funciona<br>esto. Te has bajado el repositorio de<br>GitHub. Quiero que revises qué proyectos<br>hay dentro para poder trabajar con<br>ellos. Bueno, me cuentes un poco de qué<br>van. Vale, aquí lo tenemos. Dentro de la<br>Playbook trae varias cosas. Connect to<br>Sparks, GGX Dashboard oyama Open. Bueno,<br>hay bastantes. Míratelos y dime los tres<br>que más te gusten para poder implementar<br>en esta DGX Spark y que sean más<br>atractivos para enseñarlos en el canal<br>de YouTube, ¿no? Los que te parezcan más<br>chulos. Para demo atractiva de YouTube<br>en la DGX Spark me quedo con estos tres.<br>Conf UI me parece muy buena opción. Flux<br>1 Dream Booth Lora Fine Tuning, también<br>es interesante. Y Live VLM Web UI. ¿Qué<br>es esto? Cámara en tiempo real, modelo<br>de visión en lenguaje la IA B y comenta.<br>Esto me parece chulo, ¿eh? Pues venga,<br>vamos a montarlos. Móntame la primera<br>demo, la de Conffe UI, y avísame cuando<br>la tengas terminada. Y como podéis ver,<br>la inteligencia artificial está ahora<br>mismo haciendo mi trabajo, o sea, está<br>montando la demo. Yo tenía que hacer<br>esto para este vídeo. A ver qué tal era<br>esta DGX Spark. Pues ya no hace falta,<br>lo está haciendo él mismo, sin necesidad<br>de que yo intervenga de ninguna manera,<br>¿sabes? O sea, la verdad me parece<br>bastante brutal. Listo, amo. Primera<br>demo montada y funcionando. La tenemos<br>aquí montada. Y chicos, aquí lo tenéis.<br>Conf UI funcionando en la Villa Spark.<br>Plantillas, plantillas que podemos usar.<br>Esto básicamente es una aplicación de<br>inteligencia artificial donde podemos<br>cargar varios modelos de generación de<br>imagen, de vídeos, de todo tipo de cosas<br>y podemos pues generar, bueno, como<br>estáis viendo, todo tipo de proyectos y<br>además esto es muy personalizable, o<br>sea, realmente te permite hacer<br>muchísimas cosas, modelos faltantes.<br>Aquí le puedo decir que me descargue<br>todos estos modelos. De hecho, mira, le<br>voy a decir esto, la demo de la demo de<br>Nvidia no te lo dice, ¿eh? Pero eso lo<br>voy a decir yo a mi langosta. Mira, me<br>falta todo esto. Son requisitos<br>para ejecutar el modelo que quiero, el<br>workflow que quiero. ¿Me lo arreglas? A<br>ver si lo consigue. He lanzado la<br>descarga de estos cinco modelos en sus<br>carpetas correctas dentro de Conf UI. Ya<br>estaría. Ahora cuando lo tenga, pues me<br>avisa. Chicos, día 2 probando Open Claw<br>en mi Nvidia Spark. A ver si se han<br>descargado las cositas. Ahora ya tengo<br>todos los modelos cargados, ya me<br>funciona este workflow. Lo voy a<br>ejecutar simplemente. Vale, voy a poner<br>una foto mía. Vamos a subir esta foto y<br>vamos a ver qué hace. Okay, ¿qué hace<br>esto exactamente? Pues la verdad es que<br>no lo he leído, pero bueno, ahora lo<br>veremos juntos. Madre mía, hace<br>imágenes. M. Oh, [ __ ] qué guapo, ¿no?<br>Bueno, aquí se ha vuelto un poco loco,<br>¿eh? Aquí se ha vuelto un poco loco.<br>Esta no ha salido del todo bien. Esta es<br>más de cerca, un poco más de lejos. Esta<br>es un poco de lado. Esta es<br>completamente de lado. Esta está loca.<br>Esta son 45º,<br>ángulo de abajo, ángulo de arriba. La<br>verdad que muy bien, eh, muy<br>interesante. Y aparte esto está<br>corriendo todo local, es totalmente<br>gratis, sin necesidad de pagar nada. Lo<br>puedo ejecutar miles de veces sin tener<br>una cuenta en ningún sitio, lo puedo<br>modificar y la interfaz es superamable.<br>Es que hoy en día estas cosas son<br>bastante fáciles de usar. Muy bien, pero<br>antes de seguir adelante y cambiarle el<br>cerebro a Open Club por uno que esté en<br>local, quiero hacer un par de pruebas a<br>ver qué tan bueno es Open Clot. Te he<br>dado acceso a las dos carpetas del NAS<br>de la empresa. Las tienes las dos en tu<br>home. Quiero que las analices y me digas<br>qué contenido tienen cada una de ellas y<br>cómo optimizarlo. Vale, vamos a probar a<br>ver qué me dicen. Vale, chicos, tenemos<br>respuesta. A ver qué me ha dicho.<br>Sí, ya las analicé. Las dos carpetas<br>montadas son barra diagonal<br>home/onalnate/onalmercury<br>y barra diagonal home/onaln nate/onal<br>Júpiter Mercury 53 TB 147,760<br>archivos. Contenido principal producción<br>de canal. Pesos clave cero. Nate Gentel<br>45 TB incluye Publiset 36 TB. Nat 4,5 TB<br>2 shorts 1,4 TB 3 Sponsor 655 GB tras<br>1966 GB basura acumulada DAM 350 GB. Si<br>quieres te preparo un plan ejecutable en<br>tres fases y lo dejo listo para que<br>recuperes espacio sin riesgo.<br>Vale, primera prueba superada. Me he<br>analizado las carpetas, me ha dado datos<br>bastante buenos de qué es lo que hay<br>dentro. Oye, necesito que me mires en la<br>página web del Chapuzas Informático las<br>tres noticias más virales de esta<br>semana. Okay, tenemos respuesta. Vamos a<br>ver qué tal.<br>Top tres que más están moviéndose esta<br>semana en el Chapuzas Informático. Show<br>la polémica de cambiar R 57430 por<br>5500U. Tema bastante viral por posible<br>estafa. Dos. Chat GPT con GPT5. 4 subida<br>fuerte de interés por mejoras de<br>contexto y búsquedas. Tres. A data avisa<br>de escasez de drum. Impacto directo en<br>precios y disponibilidad. Si quieres, te<br>hago ahora un resumen rápido de 15 20<br>segundos de cada una.<br>Vale, ahora vamos a hacer una prueba<br>todavía más difícil. Mira, tienes acceso<br>al servidor 177, ¿vale? La IP acaba en<br>177. Quiero que te conectes por SSH y<br>mires qué máquinas de Docker están<br>corriendo. Deberías ver una de Wiruard.<br>Dime, ¿cuántos clientes de Wiru hay<br>conectados ahora mismo a la red?<br>¿Quiénes son? Y aparte ten en cuenta que<br>la IP que te he dado es de un servidor<br>que cuando te conectes tiene un prompt,<br>¿vale? Por lo cual tienes que salir de<br>ese prompt nada más conectarte. Le<br>pedido algo bastante complicado. Si yo<br>le pido esto a un administrador de<br>sistemas, en principio debería de poder<br>hacerlo, ¿vale? No es nada complicado,<br>pero son muchos pasos y muchas cosas a<br>tener en cuenta. Entonces, vamos a ver<br>qué pasa.<br>Hecho, visto, blanco grueso, prueba<br>pasada. Me conecté por SSH al servidor<br>terminado en 177 y comprobé DKE/ALW.<br>Contenedores daque corriendo 1 WW<br>lscr/al<br>linuxerver/onalwward<br>lat lattest clientes wirew configurados<br>seis clientes con conexión activa ahora<br>tienen handsc 3 activos un marina dos<br>laptop nate tres Carlos<br>brutal que una IA pueda conectarse a mi<br>infraestructura de servidores y mirar<br>estas cosas me parece brutal. Vemos que<br>con GPT Codex es supercaz, o sea, no hay<br>nada que no pueda hacer prácticamente<br>por mucho de que tarde en contestar.<br>Pero, ¿qué pasará si le metemos un<br>modelo local? Bueno, pues vamos a<br>probarlo. Vale, tenemos todos estos<br>modelos para poder trabajar en local.<br>Okay, mirad, cada uno de estos modelos<br>que tenemos aquí, como podéis ver, ocupa<br>una cierta cantidad de memoria. ¿Veis?<br>Aquí tenemos 68 GB, 40 GB, 59 GB, alguno<br>de 19, otro de 20, otro de 61. Pues esto<br>básicamente es la capacidad dentro de la<br>memoria de nuestro Nvidia DGX Spark.<br>Nosotros cargamos el modelo entero en la<br>memoria y luego la tarjeta gráfica lo va<br>utilizando, pero para que pueda<br>funcionar en principio lo tenemos que<br>tener todo cargado en memoria. Pero<br>tenemos otro problema y es que<br>necesitamos también lo que se llama la<br>KVK, que básicamente es la memoria en la<br>que vamos a meter el contexto. Antes os<br>expliqué que los contextos son todo este<br>texto que se le pasa al modelo para que<br>pueda entender quién es, qué tiene que<br>hacer, cómo se comporta, de qué venís<br>hablando, etcétera, etcétera. Y todo<br>esto también lo tiene que tener dentro<br>de la memoria del propio del propio<br>ordenador, compartiendo memoria incluso<br>con el modelo. Así que vamos a ver cómo<br>lo hacemos. ¿Qué modelo tenemos cargado<br>en VLLM? Tenemos Quen 2.5 VL. Okay.<br>Apunta. Open Clow para que use este<br>modelo, pero solo para WhatsApp, o sea,<br>cuando le hablo por WhatsApp que use ese<br>modelo, sio Open AI codex, porque<br>básicamente podemos hacer eso, ¿no?<br>Tener un modelo que está respondiendo<br>directamente al WhatsApp y otro que está<br>respondiendo por aquí. Yo por aquí voy a<br>mantener el codex, básicamente porque si<br>le pongo un modelo demasiado tonto y<br>luego no consigo que consiga cambiar la<br>configuración, pues vamos a tener un<br>problema, la verdad. Vale, soy un<br>asistente de inteligencia artificial<br>diseñado para ayudarte con una variedad<br>de tareas. Mi modelo base es el Quen 2.5<br>VL o esto tiene muy buena pinta, gente.<br>Hola, ¿estás ahí?<br>Hola, ¿en qué puedo ayudarte hoy?<br>¿Me estás escuchando lo que te digo?<br>Hola, ¿en qué puedo ayudarte hoy?<br>Solo sabes decir esto.<br>Hola, ¿en qué puedo ayudarte hoy?<br>Eh, me das miedo. Le voy a escribir por<br>texto. ¿Estás ahí? ¿En qué puedo ayudar?<br>Sí, estoy aquí. ¿En qué puedo ayudarte<br>hoy? Puedes mirar las Me da miedo que me<br>destroce todo, ¿eh? Las carpetas del Nas<br>tienes en tu home. Como hago un como<br>hago un borrar y me borré todo el NAS,<br>tío, me pego un tiro. Sin embargo,<br>necesito saber cuál es el Nas y cómo<br>acceder a él. Están en tu home las<br>carpetas. Las carpetas identifícalas y<br>mira el contenido. Explícamelo, pero no<br>rompas nada, porfa. Por supuesto, me<br>repite lo mismo. Para poderte ayudar<br>mejor, necesito que me proporciones más<br>detalles sobre tu nas. Están las<br>carpetas montadas en tu home. No está<br>mal el modelo, eh, pero claro, para<br>poder ayudarte con las carpetas montadas<br>en tu home, necesito que proporciones<br>más detalles sobre T NAS. Este creo que<br>no tiene acceso ni siquiera a usar el<br>ordenador.<br>Hola, ¿en qué puedo ayudarte?<br>Vale, este modelo está claro que es<br>demasiado tonto y que no puede hacer ni<br>siquiera la primera tarea de todas, por<br>lo cual de alguna manera pues no<br>consigue entender lo que tiene que<br>hacer, no sabe usar correctamente las<br>herramientas. Y un problema que vamos a<br>ver también en todos estos en todos<br>estos modelos es que realmente muchos de<br>ellos no están entrenados para usar<br>herramientas, o sea, no saben<br>exactamente cómo se usan las<br>herramientas. Voy a probar GPT OSS,<br>¿vale? GPT OSS es la versión open source<br>de Chat GPT. Está entre un GPT 3.5 y 4,<br>¿vale? por ahí en medio estaría. No es<br>lo último de lo último, pero bueno,<br>vamos a ver qué tal hace todo esto,<br>¿vale? Hola, estoy transcribiendo el<br>audio y pronto recibirás la respuesta en<br>audio. Wow. Vale, por lo que estoy<br>viendo en los logs, hay como un no<br>reply, ¿vale? O sea, como que intenta<br>mandar el audio, lo transcribe, va a<br>contestar, pero responde sin respuesta,<br>algo bastante raro. Hola, ¿me puedes<br>escuchar? ¿Sabes lo que te estoy<br>diciendo? Ahí ha recibido mi mensaje. No<br>sé qué tal lo hará ahora. Vale, me ha<br>contestado con un audio. A ver qué dice.<br>Estoy procesando el audio y pronto<br>recibirás la respuesta en audio. No<br>guion bajo repli.<br>Okay, vale, pues si puedes procesar mi<br>audio, yo que sé. Dime cuántos días<br>tiene la semana, está contestando. A<br>ver,<br>estoy transcribiendo el audio y pronto<br>recibirás la respuesta en audio.<br>Vale, el tema de audio no parece que<br>funcione muy bien. Le voy a escribir<br>directamente, ¿vale? Vamos a escribirle<br>por WhatsApp. Un poco más fácil, más<br>sencillo, no nos complicamos tanto la<br>vida. ¿En qué puedo ayudarte? Eh,<br>¿cuántos días tiene la semana? Se lo<br>está pensando mucho, ¿eh? ¿Cuántos días<br>tiene la semana? Mira, parece que está<br>dando time out de Ll, pero yo creo que<br>no debería dar, o sea, el time out es<br>porque que está tardando demasiado, ¿no?<br>Y no debería debería darle un poquito<br>más de tiempo para responder. Quizás no<br>le está dando el suficiente tiempo.<br>Request time out. Okay, vamos a hacer un<br>reset. Okay, vamos a empezar de cero la<br>conversación. Hola, ¿estás ahí? No, no<br>parece que esté contestando. Parece que<br>le ha pasado algo al GPTOSS. Vale, ahora<br>me ha contestado. Sí, aquí estoy. Sí,<br>aquí. ¿Qué necesitas que haga? Necesito<br>que me digas cuántos días tiene la<br>semana. Una semana tiene 7 días.<br>Perfecto. En tu home tienes un par de<br>carpetas del Nas. Dime, ¿cuáles son?<br>Están montadas por SMB. Va, te voy a dar<br>mucha ayuda. Vale, hay dos. Muy bueno.<br>Dime, ¿para qué sirve cada una de ellas?<br>Esta carpeta parece ser el hub de tus<br>contenidos de vídeo y material de<br>producción activo. Aquí me dice un poco<br>lo que contiene y esto. Okay. Mientras<br>que la otra es la biblioteca de recursos<br>de Muy bien, muy bien, buena deducción.<br>El modelo con audio se le complica un<br>poco, no lo hace tan bien, pero por el<br>resto parece que para tareas un poco más<br>como esta que le acabo de pedir, sí.<br>¿Cuáles son las tres noticias más<br>virales las últimas semana en el<br>Chapuzas informático, en la web del<br>Chapuzas Informático, estoy metiendo<br>demasiado trabajo de golpe, eh? A ver si<br>me contesta algo. Para buscar las<br>noticias más brales de la última semana<br>en la vuelta de chapuces, necesito abrir<br>una ventana en el navegador y buscar. No<br>usa Chrome Headless. Okay, me ha dado<br>tres noticias. No son las mismas que me<br>he dado al otro modelo, pero son tres<br>noticias y ha tardado demasiado poco, la<br>verdad. Son las más virales. ¿Cómo lo<br>has determinado? Tomado los últimos<br>artículos, aparecen destacados y que<br>según la propia presentación del sitio<br>reciben mayor de visibilidad. Bueno, no<br>está mal, no está mal la estrategia.<br>Okay, mira, desde la máquina donde estás<br>tienes acceso a una máquina que acaba en<br>77. Puedes acceder por SSH. Cuando<br>entres verás que hay un prompt que te<br>obliga a apretar una serie de teclas,<br>pero una vez que estés dentro puedes<br>ejecutar comandos. Hay una máquina de<br>Docker corriendo. Dime qué máquina es y<br>una vez que estés dentro, pues utiliza<br>esa máquina para mirar qué clientes de<br>Wiruard están configurados en ese<br>ordenador. Les lo he puesto en bandeja,<br>o sea, más fácil imposible. Le he dado<br>todos los pasos para hacer lo que tiene<br>que hacer. Okay, me acaba de dar todos<br>los clientes, o sea, hola. Muy bien, muy<br>buen trabajo. Esto no lo puedo enseñar,<br>evidentemente, en cámara. Y va muy<br>rápido, ¿eh? O sea, está contestando<br>superrápido. Parece que por fin tenemos<br>un Open Clow local. Eh, esto tiene muy<br>buena pinta, señores. No es tan tan<br>listo como el chat GPT Frontier, ¿vale?<br>O sea, le tienes que explicar un poquito<br>más porque si no toma todo lo que le<br>dices de forma demasiado literal, pero<br>bueno, tampoco está mal, la verdad. Y de<br>hecho, aquí estáis viendo un problema<br>bastante grande todo el rato. Eh, veis<br>que habla de sumarization failed, 400<br>tokens might be at least one. Bueno, max<br>tokens should be at miss at least list<br>one. ¿Veis? Aquí hay problemas. ¿Por qué<br>está pasando y estoy recibiendo todos<br>estos mensajes? Bueno, pues básicamente<br>porque el contexto no es lo<br>suficientemente grande como para que<br>pueda compactar la memoria y bueno, pues<br>recordar gran parte de las cosas de las<br>que estamos hablando. Digamos que no es<br>muy este modelo va a ir borrando<br>contexto, va a ir borrando memoria, por<br>lo cual no va a ser demasiado bueno<br>siguiendo el hilo de la conversación que<br>tenemos, o sea, se irá olvidando de lo<br>que venimos hablando. De hecho, le puedo<br>preguntar sobre algo que hablamos hace<br>un rato. ¿Qué Chrome te dije que uses?<br>Deberías usar para buscar en Google<br>según lo que hablamos. Igual se acuerda<br>ahora, pero veis, ya no se acuerda de lo<br>que hablamos hace un momento. O sea, me<br>está hablando de que va a usar la<br>extensión de Open Cl<br>que use el Headless, ¿veis? O sea, es<br>que no se acuerda porque no es capaz de<br>retener todo este contexto, ¿vale? No le<br>cabe dentro de su ventana. Y esto es<br>porque en la memoria local no cabe tanto<br>contexto. Open Clow tiene un contexto<br>enorme y eso pues ahora mismo es un<br>problema para nosotros. Tenemos el<br>problema de que cuando el modelo es<br>bueno y es inteligente, ocupa gran parte<br>de la memoria y nos deja un trozo<br>pequeño para contexto. Y cuando el<br>modelo es pequeño y le podemos meter un<br>montón de contexto, el modelo es<br>demasiado tonto y no sabe hacer<br>prácticamente nada. Así que, como veis,<br>de momento el experimento no está<br>saliendo mal. La verdad que GPT USS está<br>bastante bien, pero nada está a la<br>altura de los modelos que tenemos online<br>en internet de momento, por lo menos.<br>Pero quiero hacer una última prueba. En<br>internet están hablando por todas partes<br>de Minimx. Minimax parece ser que es un<br>modelo bastante bueno para gente y<br>bastante bueno para conversaciones<br>largas y yo quiero hacer ambas cosas.<br>Quiero que sea una gente y que tenga<br>conversaciones largas. Así que le voy a<br>pedir que me monte un Minimx, la última<br>versión que exista en internet. Se lo<br>voy a pedir aquí a mi agente. Agente,<br>búscame<br>el mejor Minimx que encuentres. Ponle un<br>modelo, un eh contexto grande, todo lo<br>que puedas y móntamelo para que podamos<br>usarlo con Open Clow. Y listo. Yo me voy<br>a tomar un café y cuando vuelva pues<br>vamos a ver qué ha pasado aquí. Muy<br>bien, gente, os voy a explicar lo que<br>acaba de pasar porque es totalmente<br>surrealista, ¿vale? Bueno, realmente me<br>lo he buscado yo y me lo merezco, creo.<br>Básicamente, como os conté, yo le pedí a<br>OpenCl que instale el modelo Minimx.<br>Minimx M2.5 básicamente ocupa más o<br>menos unos 130 GB en memoria, solo el<br>modelo, no estamos hablando de la KV<br>caché ni de nada por el estilo. Okay,<br>esto es más de la memoria total que<br>tiene el Nvidia Spark. ¿Qué significa<br>eso? Pues que no cabe. ¿Qué pasa? que en<br>la Nvidia Spark la RAM es compartida,<br>por lo cual solo hay una RAM, tiene 128<br>GB de RAM. RAM, V RAM, llámale como<br>quieras, memoria unificada, ¿vale?<br>Cuando esta memoria unificada se llena,<br>no solo no hay memoria para la propia<br>DGX Spark, sino que tampoco hay memoria<br>para el propio sistema operativo. O sea,<br>Linux se queda colgado, no responde<br>absolutamente nada porque no tiene<br>memoria para poder trabajar. ¿Qué es lo<br>que ha hecho exactamente OpenClow esta<br>vez? Pues se ha saltado la guía de<br>Nvidia, no ha hecho las cosas como tenía<br>que hacerlas y ha montado un VLM, que es<br>el servidor este de modelos de<br>inteligencia artificial. Por lo que<br>estoy viendo yo lo ha montado de una<br>manera que arranca nada más arrancar el<br>equipo. O sea, yo apago la DGX Spark, la<br>enciendo y automáticamente de las<br>primeras cosas que arranca antes<br>siquiera de aparecer la pantalla de<br>login es el VLM. ¿Qué pasa cuando<br>arranca VLM? Carga Minimx en memoria, lo<br>empieza a cargar y cargar y cargar y<br>enseguida, en cuestión de pocos<br>segundos, la memoria se llena. se llena,<br>no cabe absolutamente nada y se queda<br>todo pilladísimo, pero pilladísimo,<br>pilladísimo, pilladísimo. No puedo<br>acceder a este aparato. O sea, esto está<br>totalmente briqueado. Es un ladrillo<br>ahora mismo. No puedo hacerle pink, no<br>puedo entrar por SS sh, desenchufo, lo<br>vuelvo a enchufar, no hace absolutamente<br>nada, o sea, está totalmente muerto. No<br>sé qué hacer. O sea, la IA ha tomado el<br>control total de este ordenador. Yo voy,<br>reinicio la DGX Spark, arranca y se<br>vuelve a pillar. Si le conecto un HDMI,<br>no veo nada. Le conecto un teclado un<br>rato, no puedo hacer nada. Me intento<br>conectar por SSH, no me contesta, o sea,<br>no me puedo conectar de ninguna manera.<br>No responde, o sea, está totalmente<br>muerta, ¿sabes? O sea, ahora mismo la IA<br>se acaba de cargar el aparato,<br>literalmente. Este, como estáis viendo,<br>es uno de los muchos peligros de la<br>inteligencia artificial. Al final, yo le<br>estoy dando acceso total a ese aparato.<br>Le digo, "Haz lo que quieras, instálate<br>esto, no me pidas permiso, tira millas."<br>y él pues empieza a instalar cosas y si<br>mete una [ __ ] como acaba de meter<br>ahora, pues básicamente lo puede<br>bloquear completamente. Pero bueno, en<br>el momento en el que estoy hablando con<br>vosotros, realmente el problema ya lo<br>tengo solucionado. Tengo que decir que<br>me asusté bastante, ¿vale? Pero al final<br>conseguí una solución y es que como os<br>dije, tengo también un Open Clow montado<br>en este portátil, ¿vale? Fue el primero<br>que monté de todos antes de la Spark,<br>por lo cual tengo dos Open Clow. Así que<br>lo que hice fue pedirle a este Open Clow<br>que intente recuperar el control de<br>aquel ordenador. ¿Vale? ¿Cómo lo<br>hicimos? Bueno, pues básicamente le di<br>el usuario y contraseña de SSH y le<br>dije, "Intenta conectarte." ¿Qué pasa<br>cuando yo me intento conectar? Pues no<br>me responde, ¿vale? Se queda pillado y<br>al final me dice time out. Y nada, la<br>verdad es que no conseguimos mucho<br>resultado, pero nos dimos cuenta a base<br>de reintentar, reintentar, reintentar<br>que cada x tiempo el proceso de VLM se<br>muere y hay un pequeño, bastante pequeño<br>lapso de tiempo en el cual el servidor<br>responde. Ese lapso de tiempo más o<br>menos, ahora no recuerdo cuánto eran,<br>pero eran como unos 10 segundos. Hay<br>unos 10 segundos en los cuales el DGX<br>Spark te contesta y puedes entrar y<br>ejecutar comandos. Al principio<br>intentábamos matar Docker porque no<br>sabíamos que no estaba en Docker, pero<br>no moría porque no había nada, o sea, no<br>sabíamos ni siquiera cómo se llamaba el<br>proceso que había lanzado, ¿vale?<br>Entonces, al final después de hacer<br>varias pruebas, conseguimos sacar el<br>nombre del proceso, ahí lo mandamos a<br>matar y el problema es que tal como se<br>lo montó, por mucho que lo mates, vuelve<br>a lanzarlo, pasan x segundos y de<br>repente pues el ordenador se vuelve a<br>quedar pillado porque se vuelve a cargar<br>toda la memoria. Así que al final para<br>poder vencerlo lo que hice fue, me<br>preparé un comando de mandar a matar al<br>VLM y le dije que lo repita cada un<br>segundo. Vale, esto lo hice directamente<br>en la basche. Eh, me lo puse ahí, o sea,<br>esperé a que se abra esa ventana<br>temporal y en esa ventana temporal,<br>boom, le metí el comando de, creo que<br>era killol VLM o algo por el estilo y<br>esto lo repetí cada segundo. Ahora, en<br>el momento que empecé a matarlo a cada<br>segundo, ahí el ordenador se pudo<br>liberar, me pude conectar por otro<br>terminal y ahí ya le quité el VLM, se lo<br>desactivé, que me costó incluso<br>descubrir cómo lo había montado, ¿vale?<br>No tenía ni idea de qué había hecho y<br>cuando conseguí desactivarlo, pues ya<br>recuperé el control de la Nvidia Spark.<br>Eh, y esa ha sido mi aventura con la<br>inteligencia artificial. Al final no<br>probé Minimx, eh, lo probaré otro día,<br>¿vale? otro día con más tiempo, pero yo<br>creo que hasta aquí hemos avanzado<br>suficiente para el vídeo de hoy. Y<br>bueno, chicos, aquí termina este<br>experimento. La verdad que me he llevado<br>una decepción muy grande, ¿vale? No os<br>voy a mentir. Creo que puede estar bien<br>usar OpenClock con un modelo local. Creo<br>que se puede llegar a hacer cosas.<br>Puedes llegar a usarlo para tareas<br>sencillas que estén como programadas y<br>que estén como bastante preconcebidas y<br>que sepan más o menos lo que tiene que<br>hacer. Pero para ser realmente<br>inteligente, para poder resolver<br>problemas un poco más complejos, para<br>que trabaje por ti y haga este tipo de<br>cosas, analice datos, saque<br>conclusiones, pues esto va a ser un poco<br>más complicado. Los modelos Frontier,<br>que es como se les llama a estos modelos<br>más avanzados que existen hoy en día,<br>lamentablemente no se pueden ejecutar en<br>un ordenador como este, ni en uno como<br>este, ni en ninguno que te puedas llegar<br>a montar en tu casa, yo creo. Estamos<br>hablando de que los servidores que tiene<br>Open AI, que tiene Anthropic, que tiene<br>todas estas empresas, son tan potentes<br>que están a una escala totalmente<br>distinta de los ordenadores que tenemos<br>nosotros en nuestra casa. Y es que<br>aunque tuviésemos esa potencia, los<br>modelos con los que trabajan ellos no se<br>parecen en nada a lo que nosotros<br>podemos descargar y utilizar. Lo más<br>parecido, a lo mejor, sería un eh<br>Deepsic, ¿vale? Dipsic sí que es un<br>modelo que te puedes descargar completo<br>y ejecutar en tu superordenador, pero<br>bueno, yo de momento no tengo un<br>superordenador en el que me quepa<br>depsck, aunque podría ser una idea para<br>un futuro vídeo. Y esto me preocupa<br>muchísimo porque siento que no nos<br>podemos saltar este paso, por lo menos<br>si queremos estar a la última. O sea, si<br>queremos tener la última tecnología,<br>aprovechar lo último de lo último, vamos<br>a depender 100% de todos estos servicios<br>externos. Servicios que se están<br>ejecutando en ordenadores que no son<br>nuestros. O sea, nosotros estamos<br>perdiendo el control de la máquina que<br>ejecuta el software. Y esto realmente no<br>es nuevo porque, bueno, sí que es verdad<br>que en cuanto a almacenamiento, en<br>cuanto a poner nuestros datos en<br>internet, es algo que llevamos haciendo<br>ya más de una década, ¿vale? utilizando<br>redes sociales, utilizando foros,<br>utilizando, bueno, todo este tipo de<br>aplicaciones que están 100% basadas en<br>internet. Pero es que ahora directamente<br>ya no tenemos ni siquiera la máquina que<br>ejecuta los cálculos, porque nuestros<br>ordenadores no son capaces, ni siquiera<br>tienen acceso a esos algoritmos que son<br>los que hacen ese tipo de tareas, por lo<br>cual nuestro ordenador se queda<br>simplemente como un dispositivo tonto<br>que se va a conectar a estos servicios,<br>los va a usar y y bueno, dependemos 100%<br>de ellos, dependemos de qué precio nos<br>quieran poner, de qué es lo que quieran<br>hacer con nuestros datos y esto, la<br>verdad, es algo que me pone bastante<br>triste y me preocupa, pero también<br>pienso que con el tiempo, con los años,<br>a medida que los modelos de inteligencia<br>artificial se vayan estabilizando un<br>poco, y ya no avancen más, pues poco a<br>poco el resto de tecnologías les irán<br>alcanzando hasta que llegará un día que<br>tengamos pues algún tipo de servidor que<br>podamos montar en casa con un precio<br>razonable y le podamos montar ahí pues<br>un modelo de inteligencia artificial que<br>no esté tan lejos de lo que tenemos pues<br>en empresas privadas, ¿no? Pero de<br>momento dependemos 100% de ellos hasta<br>que eso no pase. Bueno, pues son dueños<br>de todos nuestros datos, de todos<br>nuestros hábitos y nos están utilizando<br>sin ningún lugar a duda para mejorar su<br>producto. No tengo ninguna duda de esto.<br>Cualquier cosa que se te ocurra,<br>cualquier cosa que planees, cualquier<br>cosa que pienses, al final eventualmente<br>la inteligencia artificial va a acabar<br>integrándola dentro de su propio modelo,<br>¿no? Así que nada, gente, espero que os<br>haya gustado mucho este vídeo. Si os ha<br>gustado, ya sabéis, dejadme una manito<br>para arriba, suscribiros al canal y nos<br>vemos en el próximo vídeo.