Reduce el coste de la IA x10: Técnicas de prompt caching y errores comunes

Procesado: 00:17:03 5.791

Hacer Pregunta

Análisis

RESUMEN

El video explora estrategias para reducir los costos asociados con el uso de la Inteligencia Artificial (IA), centrando la conversación en las técnicas de "prompt caching" y los errores comunes que pueden inflar los gastos. Se analiza el panel de uso de Cursor, destacando la diferencia entre el costo de los tokens de entrada y los tokens de caché, donde este último es significativamente más económico. El video se enfoca en cómo la optimización del caché puede disminuir los costos de manera notoria, especialmente en el contexto de la programación y el uso de herramientas como Cursor y Cloud Code.

IDEAS PRINCIPALES

  • Costo de Tokens y Caching: El video enfatiza la diferencia de precio significativa entre los tokens de entrada (input) y los tokens que se obtienen de la caché (cache hit). El uso de caché puede reducir el costo del uso de IA hasta diez veces.
  • Importancia del Prompt Caching: Se discuten las ventajas de utilizar prompt caching para mejorar la eficiencia y disminuir los costos. El video explica cómo el cursor indexa la base de código para optimizar el uso de la caché.
  • Modelos de Precios de IA: Se exploran los modelos de precios de diferentes plataformas, como Cursor y Antropic, y cómo estos influyen en los costos del servicio. Se destaca que Cursor puede no estar obteniendo ganancias directas de los costos de token, sino que ofrece planes con una cuota mensual y tokens incluidos.
  • Errores Comunes y Optimizaciones:
    • Cambiar entre modelos de IA durante una misma sesión puede afectar negativamente la eficiencia del caché, lo que incrementa los costos.
    • Se recomienda estructurar los prompts para permitir un mayor uso de la caché.
    • Compactar el contexto y usar subagentes para favorecer la reutilización de la caché.
  • Herramientas y Visibilidad: Se mencionan las limitaciones en las herramientas actuales para monitorear y analizar el hit rate de la caché, lo cual dificulta la optimización precisa de los prompts.

INSIGHTS

  • Se incentiva a los espectadores a compartir el contenido para que otros puedan optimizar el uso de IA y reducir costes.
  • Se destaca la importancia de comprender los modelos de precios y la implementación de las técnicas de caché.
  • Se mencionan las diferencias en la forma en que Cursor y Cloud Code interactúan con los modelos de IA debido a la indexación de la base de código y otros factores.

Sabiduría

RESUMEN

En el video, Codel discute cómo reducir los costos de la IA usando técnicas de prompt caching. Explican el dashboard de uso de Cursor, analizando la caché y sus costos.

IDEAS

  • El panel de uso en Cursor muestra el desglose de tokens y el costo de cada interacción con IA.
  • La mayor parte del uso de tokens en Cursor proviene de la caché en lugar del input directo.
  • Cursor indexa toda la base de código para usarla en el contexto, consumiendo tokens de caché.
  • Optimizar el uso de la caché es crucial para reducir costos y mejorar la eficiencia en la IA.
  • Los precios de Cursor para los modelos de IA son los mismos que los de la API de Antropic.
  • Cursor ofrece una cuota de uso de tokens incluida en sus planes de suscripción.
  • Las cuentas de Teams de Cursor pagan 25 centavos por cada millón de tokens adicionales.
  • El modelo de precios de caché es importante, ya que un cache hit cuesta 10 veces menos.
  • Al cambiar de modelo en una misma sesión se pierde el contexto y la caché, subiendo los costos.
  • El modo "plan" en Cursor, usa tools de enter y exit, aprovechando la caché.
  • El auto-caching es un mecanismo en Cloud Code implementado a través de cache control.
  • Cloud Code ahora permite usar mucho más tokens que Cloud Code, por eso son subvencionados.
  • Cursor indexa tu base de código para que la IA la utilice, ahorrando costos.
  • La competencia entre plataformas de IA, como OpenAI y Anthropic, es beneficiosa.
  • La visibilidad del uso de tokens de la caché no es tan clara desde el cliente.
  • Cloud Code no quiere que se use su subvención en otros sitios por razones económicas.
  • El agent harness es lo que hace diferente la interacción de IA en diferentes plataformas.
  • La suscripción de Cursor Pro puede ser 6 veces el uso del plan estándar de empresas.
  • Es esencial entender el modelo de precios de la IA para optimizar el gasto.
  • El enfoque puede estar en usar cache para reducir costes en la IA.
  • La herramienta de context de Cursor no da datos detallados del hit rate.
  • Se busca un hook para analizar cuántos tokens se leen de caché tras interacciones.
  • En la suscripción, se evalúa cual es la versión que mejor se adapta.
  • Ver el vídeo centrado en el uso de la IA, si te ayuda en el trabajo.
  • Con la suscripción Pro, se accede a más tokens, de otra forma, no la uses.
  • La falta de métricas detalladas sobre el uso de la caché dificulta la optimización.

INSIGHTS

  • El caché es primordial para reducir drásticamente el costo de usar la IA.
  • El entendimiento profundo de los precios de IA es clave para optimizar.
  • Aprovechar la caché en tus herramientas de IA es fundamental para la eficiencia.
  • La elección del modelo de IA debe basarse en el costo y la eficiencia.
  • La optimización de la caché es un factor clave en el uso efectivo de IA.
  • La planificación de IA debe combinar modelos y caché para optimizar el coste.
  • El análisis de la caché es fundamental para mejorar el uso de IA.
  • El cambio de modelo en una sesión puede afectar significativamente la caché.
  • La comprensión de cómo funciona la caché es esencial para la reducción de costes.
  • La competencia en IA beneficia a los usuarios con mejores opciones de precio.

CITAS

  • "Hostia, 3,illones y medio de tokens así del tironazo. Javi, pero qué mierda has hecho!"
  • "Donde está la madre del cordero es en los casi 3 millones que se lleva ya cacher reit."
  • "Todo lo que engordemos el contexto con cosas innecesarias que provoquen ruido."
  • "Los precios a los que Cursor te ofrece eh los distintos modelos son los mismos precios que si fueras directamente a través de la API."
  • "Oye, eh todos los planes tienen una cuota eh de uso de tokens incluida."
  • "Ellos te cobran 25 céntimos de dólar por cada millón de tokens adicional, solo si tienes una cuenta de Teams."
  • "La banca siempre gana, es decir, no te van a estar dando Opus 46 al precio de cursor uno."
  • "Estamos hipersubvencionados con las suscripciones de Cloud Code."
  • "Es seis veces25 el uso de la estándar de la la de empresas estándar es seis veces eh, coma 25 por el uso incluido en la suscripción pro."
  • "Un cache hit, hostia, me divide por 10 el precio."
  • "Tú usas subagentes, el agente principal hace una compactación del contexto y se la pasa al subagente."
  • "Ese modelo no tiene contexto y no tiene la caché."
  • "Opus para planificar, Sonet para ejecutar."
  • "El modo plan no parte de cero en el contexto, sino que en verdad es ejecutar una tool de enter plan mode y exit mode."
  • "Cuando tienes menos pasta, ahí es cuando tienes que ir jugando y probando ver qué es lo más óptimo."
  • "El problema es que lo máximo que tienes es el barractext, eh, la tuash command este de barra context."
  • "No es quiero analizar esta conversación, que es lo que ha pasado."
  • "Que ha acabado una interacción tuviera el análisis de cuántos tokens ha leído de caché."
  • "Hemos saltado un orden de magnitud, con lo cual es 10 veces menos, es 10 veces más barato."
  • "Esto es la palabra de mod, el agent harness."

HÁBITOS

  • Analizan los costos de la IA y cómo optimizar su uso para ahorrar dinero.
  • Leen documentación y recursos para entender el funcionamiento de la IA, semanalmente.
  • Evalúan los modelos de precios para mejorar su comprensión y sacar provecho.
  • Experimentan con diferentes herramientas para optimizar sus flujos de trabajo con IA.
  • Comparten información y aprenden en comunidad a través del feedback.
  • Suscribiéndose a Codel Pro para acceder a contenido más profundo y cuidado.
  • Discuten y analizan noticias tecnológicas y de programación regularmente.
  • Comparan y contrastan diferentes plataformas de IA y sus precios.
  • Prefieren el modelo de IA que les proporcione la mayor eficiencia y el menor costo.
  • Optimizan su uso de recursos para obtener el mayor valor posible.
  • Comparten y promueven contenido sobre IA en su canal de YouTube.
  • Realizan un "café con Codel" con las últimas novedades en la industria.
  • Leen el artículo que explica un poco como compactar para el cache.
  • Usan el modo "Opus Plan" para optimizar el gasto de tokens.

HECHOS

  • El panel de uso de Cursor muestra el costo y la cantidad de tokens utilizados.
  • La mayor parte del costo de tokens en Cursor proviene del "cache read".
  • Cursor indexa tu base de código para su uso en los prompts.
  • El precio de los modelos de IA en Cursor es el mismo que en la API.
  • Los planes de Cursor incluyen una cuota de tokens, después se paga.
  • La cuenta Teams de Cursor cuesta 25 centavos por cada millón de tokens.
  • El cache hit es 10 veces más barato que el input directo de datos.
  • Cambiar de modelo en una sesión puede vaciar la caché.
  • El modo "plan" en Cursor usa herramientas para mantener la caché.
  • Cloud Code permite usar más tokens con subscripción que con API.
  • Cloud Code implementa el auto-caching a través del control de la caché.
  • La competencia entre empresas de IA beneficia a los usuarios.
  • Cloud Code no quiere que se use su subvención en terceros.
  • El agent harness es la cáscara para interaccionar con el modelo de IA.
  • La suscripción Pro de Cursor ofrece 6 veces más uso que la estándar.

REFERENCIAS

  • Cursor Cloud: dashboard de uso de la cuenta.
  • Antropic: página de pricing de cloud.
  • Curso Pro para acceder a más contenido de calidad.
  • Artículos sobre el modo Opus y cómo planificar con IA.
  • Community de Cursor: feature request para el análisis.
  • Herramienta de barra context de Cursor.

CONCLUSIÓN EN UNA FRASE

Optimizar el uso de caché en IA es clave para reducir costos y mejorar el rendimiento, entendiendo los precios.

RECOMENDACIONES

  • Analiza el dashboard de uso de tu herramienta de IA para entender el gasto.
  • Aprovecha la caché para reducir significativamente el costo al usar la IA.
  • Evalúa cuidadosamente los precios de los distintos modelos de IA que utilizas.
  • Siempre escoge un modelo de IA que ofrezca la mayor eficiencia posible.
  • Profundiza en la documentación para entender el funcionamiento de la IA.
  • Considera la suscripción de Cursor Pro para el uso extendido de tokens.
  • Identifica las fuentes de coste de tu herramienta de IA.
  • Considera el auto-caching para optimizar el rendimiento.
  • Considera usar la herramienta "Opus Plan" para reducir costos.
  • Si tienes poco presupuesto, elige el modelo que optimice tu gasto.
  • Utiliza el "agent harness" para comparar la IA.
  • Investiga qué modelos de IA se adaptan a tu uso.
  • Suscríbete al canal de YouTube para recibir novedades.
  • Ten en cuenta que el agente es diferente en cada plataforma.

Sabiduría PRO DeepSeek V3

Análisis más profundo usando un modelo de IA avanzado. Genera insights más detallados y refinados.

una captura de imagen esta mañana para<br>poderla debatir ahora también y es que<br>dice esto, por ejemplo, es el panel de<br>usage, el dashboard de uso de eh la<br>cuenta de cloud de cursor que tenemos en<br>a nivel de empresa en Codel. Entonces<br>ahí tú ves cada interacción, ¿no?, que<br>se hace con cursos de cada miembro del<br>equipo. Entonces, ves cuántos tokens ha<br>usado y qué coste ha tenido. En este<br>caso, estamos viendo una llamada que ha<br>gastado 3,illon y 600,000 tokens y ha<br>costado $ y pico. Eh, una llamada y<br>dices, "Hostia, 3,illones y medio de<br>tokens así del tironazo. Javi, pero qué<br>mierda has hecho! Ojo, de input hay<br>bastante, ¿eh? De input hay 326,000.<br>Pero representativamente en los 3<br>m000ones es un porcentaje muy bajo.<br>Donde está la madre del cordero es en<br>los casi 3 millones que se lleva ya<br>cacher reit. Esto es lo clave para<br>entender cómo poder reducir el coste y<br>optimizar el uso que hagas, eh, porque<br>no solo es una cuestión de coste,<br>también es de eficiencia en el uso de la<br>IA a la hora de programar. Entonces,<br>[música]<br>cuando vemos estos 3,6 millones de<br>tokens, que no es lo mismo que ves en tu<br>cursor cuando ves ahí el circulito de<br>contexto, ahí solo ves lo del input.<br>Entonces, cuando ves esto en el panel de<br>uso, eh, ves el desglose incluso, ¿no? Y<br>ves esto de cacherry, dices, "Hostia,<br>casi 3 millones [música] de tokens que<br>ha leído de la caché para un promp que<br>era relativamente, vamos a decir,<br>sencillo. ¿Qué pasa? ¿Qué entra de esto<br>de caché? Si era el primer mensaje que<br>le envío. Pues dentro de la caché, ni<br>más ni menos, queridos amigas, queridos<br>amigos, lo que entra es también el<br>código que tiene indexado Cursor. Cursor<br>lo que hace es indexar toda tu base de<br>código del repositorio para que cuando<br>la necesite buscar ahí y eh traérsela al<br>contexto de el modelo para que este<br>ahora sí pueda dar una mejor respuesta.<br>Entonces entran cosas como eso, entran<br>cosas como las herramientas de sistema<br>de tools que le dé ya cursor, las tools<br>que tú le hayas dado a nivel de MCP, a<br>nivel de las descripciones, ojo, todo<br>eso eh entra en la cache, con lo cual lo<br>que optimicemos de eso, pues será coste<br>y eficiencia, eh porque recordemos está<br>por un lado la ventana de contexto y por<br>otro lado está la ventana de atención.<br>Todo lo que engordemos el contexto con<br>cosas innecesarias que provoquen ruido,<br>pueden despistar a la gente y provocar<br>que las respuestas que dé sean peores<br>que las que nos daría sin a lo mejor ese<br>servidor MCP con 28 herramientas que<br>tienes ahí metido José Luis, que lo<br>sabemos y no lo usan nunca. Entonces,<br>¿esto a dónde me lleva? analizar los<br>costes de cursor eh por token. Entonces,<br>aquí en esta página de la documentación<br>tienes los modelos, que es la primera<br>tabla de capacidades que tiene, pero la<br>segunda tabla es la interesante que son<br>el pricing. Y aquí es un momento<br>revelador que puede suponer el el<br>divagar o el entender estas cosas. Y es<br>que<br>los precios a los que Cursor te ofrece<br>eh los distintos modelos son los mismos<br>precios que si fueras directamente a<br>través de la API. Es decir, si yo me voy<br>a la página de pricing de Antropic de<br>cloud.com<br>pricing y veo aquí cuánto cuesta el<br>modelo Opus 4.6, vemos que de input<br>tiene $ por millón de tokens. Si me voy<br>a la de cursor que veíamos y vemos Opus<br>46<br>por millón de tokens, entonces aquí pasa<br>algo interesante y es, hostia, cursor<br>realmente no está sacando pasta de esto<br>porque va a través de API. Entonces, a<br>nivel de precio, cursor lo que te da es,<br>oye, eh todos los planes tienen una<br>cuota eh de uso de tokens incluida. Por<br>ejemplo, el plan de $20, el Pro creo que<br>se llama, pues tiene eh eh tiene<br>incluido $20 de uso de esto. El plan<br>Teams, ojo, cuidado que aquí sí que hay<br>diferencia para empresas, es $40 por<br>usuario al mes y te incluye $20 de uso,<br>todo lo demás lo pagas. Y además hay<br>algo que no lo ponen en esta página,<br>pero sí en la de empresas, [música]<br>y es que ellos te cobran 25 céntimos de<br>dólar por cada millón de tokens<br>adicional, solo si tienes una cuenta de<br>Teams. Con lo cual, si tienes una cuenta<br>individual, eso no lo pagas. Con lo cual<br>pagas lo mismo que si tuvieras la<br>suscripción a Cloud Code y tu hubieras<br>acabado el uso que te incluye la<br>suscripción. Entonces, [música]<br>eh eso sí también diferencia el si<br>seleccionas auto que deje que él<br>selecione el modelo, el precio es fijo y<br>lo determina en base a pues la<br>disponibilidad, la demanda actual y toda<br>la mierda esta, pero que resuben aquí,<br>no nos olvidemos, la banca siempre gana,<br>es decir, no te van a estar dando Opus<br>46 al precio de cursor uno, entonces<br>tampoco seamos ingenuos. Entonces,<br>eso ya lo hicieron en cursor al<br>principio de de hace un año, justo hace<br>un año, lo hicieron y dejaron de hacerlo<br>porque le salía muy caro y estaban<br>quemando mucho dinero.<br>A aquí todo hasta ahora han sido datos.<br>Esto que he dicho yo de la vaca sin<br>pregana, eso es especulación, lo<br>admitimos. mea culpa si queréis, pero mi<br>opinión por algún lado al final se acaba<br>colando. Entonces, por ir acotando el<br>tema y convergiendo en algo interesante,<br>primero eh estamos hiperchetados, es<br>decir, estamos hipersubvencionados con<br>las suscripciones de Cloud Code en el<br>momento en el que las suscripciones eh<br>que tienen un uso hiperetéreo, o sea, tú<br>te vas a mirar el modelo de precios, que<br>es lo que hemos hecho esta semana y tal,<br>así en detalle, que esto se traducirá en<br>cursos para, bueno, pues al final eh<br>también poderle sacar un rendimiento por<br>nuestra parte. Entonces, si queréis<br>apoyar a que os traigamos estas cosas,<br>eh, pero más cuidadas y con mejor todo,<br>pues podéis suscribir a Codel Pro.<br>Entonces, eh, esta semana es como,<br>hostia, claro, es que la suscripción de<br>Cursor es No, la Pro es seis veces25<br>el uso de la estándar de la la de<br>empresas estándar es seis veces eh, coma<br>25 por el uso incluido en la suscripción<br>pro. dices, "Ah, vale, la referencia es<br>la Pro, voy a verme la Pro." "Vas a ver<br>la Pro." Y dice, "No, esto es, no sé,<br>otro multiplicador de la versión<br>gratis." Dices, "Ah, vale, que la<br>referencia es la gratis. Me voy a verla<br>gratis." Te vas a verla gratis. Uso que<br>te incluye. Bueno, sí, te incluimos ahí<br>unos cuantos tokens. Dices, "Ah, vale,<br>de puta madre." Pues pues ya está, ¿no?<br>O sea, bajo demanda tú vas a cambiar<br>esto cuando veas que tienes una cuota de<br>mercado que te permita hacer patapam y<br>ya está, porque es lo que está pasando y<br>a partir de ese momento todo el mundo a<br>pagar por API igual que pagas a día de<br>hoy en cursos.<br>[música]<br>Entonces,<br>esto es un poco toda la movida y por eso<br>es tan importante el modelo de precio,<br>entender el modelo de precio, porque<br>veíamos aquí que, por ejemplo, estábamos<br>hablando de $ por millón de token en el<br>[música] caso de eh Opus eh Opus 46,<br>¿no? Y eso era de input. Pero ojo<br>importante, si nos vamos a mirar cacher<br>readit [música] es solo 50 céntimos de<br>dólar. O sea, hemos saltado un orden de<br>magnitud, con lo cual es 10 veces menos,<br>es 10 veces más barato, con lo cual me<br>interesa muchísimo que pasen cosas de<br>tokens [música] en catch rit y no en<br>input, porque un cache hit, hostia, me<br>divide por 10 el precio. Con lo cual es<br>interesante entender este artículo a<br>pesar de que sea de cloud code porque<br>las técnicas que aplican en cursos son<br>tremendamente similares, ¿no? Entonces,<br>habla del orden en el que poner las<br>cosas para permitir más cacheo. Habla de<br>un poco cómo compactar para eh o lo que<br>pasa cuando, por ejemplo, tú usas<br>subagentes. Cuando usas subagentes, el<br>agente principal hace una compactación<br>del contexto y se la pasa al subagente<br>para que este pueda reutilizar la caché<br>que ya haya de cosas que ya haya<br>consultado el agente principal. Pero<br>cuando tú estás en una sesión, y vuelvo<br>a lo que comentabas, Raf, y en una misma<br>sesión, en una misma conversación<br>cambias el modelo porque dices, "Hostia,<br>he programado todo esto con Opus 46 y<br>ahora solo le quiero hacer una pregunta<br>de por qué ha decidido hacer esta<br>implementación así y no hacerlo con esta<br>otra cosa, que es como lo habría hecho<br>yo." La típica pregunta esa que dice,<br>"Vale, pues para esto selecciono Haiku,<br>que ya me lo va a poder explicar.<br>Cagadita Pasturet. Cagada Pasturet."<br>¿Por qué? Porque en ese momento que tú<br>has seleccionado otro modelo, ese modelo<br>no tiene contexto y no tiene la caché, o<br>sea, tiene que reconstruir el contexto<br>de toda la conversación. Por lo tanto,<br>no va a ser tanto eh no va a ser tan<br>elevado el hit rate como si directamente<br>se lo preguntas a Oppus 46, que puede<br>que te salga más barato. Entonces, la<br>pregunta aquí es, Rafa, ¿esto se publica<br>anoche? Anoche yo me empapo, entiendo<br>cómo funciona todo esto. Antes de ayer<br>publicábamos el artículo de lo que<br>acabas de comentar de Opus para planear,<br>que es algo que veníamos diciendo, es<br>algo que va y viene. Eh, hace un año era<br>santo, palabrita de Niño Jesús, ¿no? De<br>opus para planificar, Sonet para<br>ejecutar. Luego se abarataron las<br>costes, las diferencias y era Sonet para<br>todo. Ahora vuelve a haber diferencias y<br>dices, hostia, no. El modo Opus Plan es<br>lo que recomendamos. [música] Y la<br>pregunta es, si hacemos eso, ¿no estamos<br>incurriendo en esto que hablamos?<br>Cloud Code hace cosa de un mes, mes y<br>medio cambió también una cosa que es<br>cuando haces el modo plan y le vas a<br>ejecutar. La opción por defecto no es<br>ejecutar el modo plan, es limpiar el<br>contexto y ejecutar.<br>Entonces, claro, de limpiar el contexto<br>y ejecutar a cambio el modelo que se va<br>a limpiar el contexto de todas formas,<br>si voy a ejecutar como mucho está esa<br>parte de caché que puede utilizar o no,<br>pero no sé si al limpiar el contexto ya<br>deja de usar esa caché también porque es<br>como una nueva conversación que le pasa<br>el contexto.<br>Es interesante, queridos amigos, porque<br>eh ahora dicho esto y me has<br>triguereado. Claro, la respuesta está<br>directamente en el post y es que el<br>cambio ese que hicieron era que en vez<br>de entrar al modo plan y limpiar o otro<br>cambio que hicieron después, no lo sé,<br>pero a día de hoy el modo plan no parte<br>de cero en el contexto, sino que en<br>verdad es ejecutar una tool de enter<br>plan mode y exit mode,<br>con lo cual realmente estás en esa misma<br>sesión, pero has ejecutado esa tool,<br>con lo cual<br>Sí que presumiblemente el ese cambio de<br>modelo dentro de ese uso en particular<br>sí que<br>aprovecharía toda la caché que se<br>hubiera generado porque se está haciendo<br>a través de estas tool de enter y exit<br>mode, ¿no? Entonces el cambio si si se<br>aprovecha pierde el sentido, sí, 100%<br>porque saldría más barato con opus. Y<br>también caba decir depende el plan que<br>tengas si tienes un plan de max eh por<br>cinco donde ya no llegas al límite tira<br>todo con opus porque va a ir mejor.<br>Cuando tienes menos pasta, ahí es cuando<br>tienes que ir jugando y probando ver qué<br>es lo más óptimo y qué es lo que más te<br>hace durar tus tokens. Es un poco<br>mierder todo esto porque esto sería como<br>sumamente fácil de validar, ¿no? De<br>decir, "Bueno, pues haces la prueba, ves<br>qué contexto ha usado, que no, pero el<br>problema es que lo máximo que tienes es<br>el barractext, eh, la tuash command este<br>de barra context, que sí te dice lo que<br>tienes en contexto, pero no te dice<br>estadísticas de hit rate y mierdas así a<br>ese nivel. Y en el caso de cursor te lo<br>desglosa un poco, pero te lo desglosa<br>por petición, con lo cual tampoco acabo<br>de poder hacer esto, ¿no?, que decimos.<br>Con lo cual eh, ah, qué rabia, tío, no<br>poder ver estas cosas. Si se ocurre eh<br>forma, pues eh encantados. Cusat que te<br>dice alguna cosa, pero te la agrupo por<br>día, no es no es quiero analizar esta<br>conversación, que es lo que ha pasado.<br>Sí, sí. Así que totalmente abiertos a a<br>que nos digáis cosas. Y encima estuve<br>mirando también los hooks para ver si a<br>través de hooks podíamos tener reporting<br>de esto. Y hay una feiture request en la<br>community de Cursor que buena suerte<br>porque creo que el primer voto que se le<br>daba era el mío, entonces dudo mucho que<br>hagan nada porque haya esa feiture<br>request, que es que eh eso el hook de<br>que ha acabado una interacción tuviera<br>el análisis de cuántos tokens ha leído<br>de caché, cuánto y con eso ya te<br>enganchas a ese hook y haces lo que sea,<br>permites hacer herramientas de análisis,<br>mierdas así, pero de momento no lo<br>tenía. Eh, se me ha ido esta noticia de<br>madres más parecida a un eh vídeo de<br>Codeli más que noticia del café con<br>Codeli. Decidnos qué os ha parecido en<br>los comentarios y eh seguramente haremos<br>un corte para publicarlo como vídeo<br>porque creo que hay eh muchas lecturas<br>interesantes. También el autocatching es<br>algo, por destacar también algo de todos<br>estos artículos,<br>es algo que ahora como se establece es<br>así, es decir, tú tienes toda la cadena<br>de mensajes de roll user asistan y tal y<br>lo que hace Cloudco por debajo es<br>simplemente a la hora de interaccionar<br>con el modelo es pasarle este cache<br>controlemal, pero antes es algo que<br>también hacía en Cloud Code, el tema de<br>la caché venía ya estando, no decimos<br>que se haya implementado ahora la caché,<br>lo que decimos es que es nuevo y que la<br>forma de hacerlo antes era a través de<br>eh break points que eh aquí le ponías el<br>cache control en el mensaje y tenías tú<br>desde el cliente, desde la gente que ir<br>moviendo este cache control, ¿no? Por<br>así decirlo. Entonces eh ahora como que<br>se simplifica todo eso mucho más y<br>bueno, pues lo tenemos ahí. Siguiente<br>noticia. Rafincho. Yo entiendo 100% que<br>Cloud Code no quiera que usen su<br>subvención en otros sitios. O sea, oye,<br>estamos teniendo Cloud Code con una<br>subvención muy grande, o sea, puedes<br>usar mucho más tokens que si vas por la<br>API directamente, pues entiendo que no<br>quieras que un Open Code use por detrás<br>tu suscripción. Oye, no, si es por Open<br>Code, tú pagas por token, por uso,<br>porque esto aquí es para mi herramienta<br>que le estamos dando cariño, le estamos<br>dando forma y porque queremos que te<br>vicies en nuestro ecosistema y acabes<br>también pagando la parte B2B, que es<br>donde sacan más pasta. Tanto aquí como<br>ahora pasa mucho, ¿no?, que ha habido el<br>ruido de de oye, Cloud Code solo se<br>puede usar en Cloud Code, ya han hecho<br>oficial, no se puede usar en open crow.<br>Ya ya ahí ya no se puede. Ahí ya tenemos<br>que ahí se quita porque mucha gente está<br>usando una suscripción solo para eso<br>vamos a banear esas cuentas. Entonces<br>eso puede pasar. Esto es sentido, o sea,<br>he visto mucha entiendo.<br>Esto es la palabra de mod, el agent<br>harness, ¿no? Que es como toda esa<br>cáscara que es el que provee el el<br>agente, ¿no? Eh, a la hora de<br>interaccionar con un determinado modelo,<br>¿no? Por eso es diferente interaccionar<br>con un Opus 46 desde cursor que<br>interaccionar con ese mismo Opus 46<br>desde Cloud Code, ¿no? que pues, por<br>ejemplo, lo que hablamos de que cursor<br>indexa toda la base de código, esa lo<br>hará de forma diferente Cloud Code.<br>Entonces tiene sentido lo que planteas.<br>Veremos a ver cómo evoluciona todo. Lo<br>que es guay es que tengamos la suerte de<br>que haya competencia entre pues un Open<br>AI, un Antropic, un [música] quien sea,<br>¿no? Eh, así que<br>y uno que nos olvidamos que ahora te lo<br>enseño.<br>Vale, perfecto. Pues gente, sillas si os<br>interesan estas cosas ya sabéis,<br>intentamos traeros noticias frescas y<br>calidad que aprendamos todos. Codel y<br>enseña, entretiene que decimos. Así que<br>eh si os gusta pues recomendamos y<br>agradecemos más que recomendamos,<br>agradecemos enormemente si pasáis el<br>enlacito de oye, mirad este café con<br>Codel y que hoy han hablado de esto que<br>en el curro creo que pues nos ayudaría a<br>reducir el gasto o creo que son cosas<br>que no estamos teniendo en cuenta a la<br>hora de usar la IA. Eh, mírate este<br>minuto cuando empiezan a hablar del tema<br>de la caché y de los distintos eh tokens<br>que al final estamos consumiendo y que<br>no tenemos visibilidad directamente<br>desde el cliente, por ejemplo, en el<br>caso de cursor o cosas así, pues se<br>agradece enormemente porque así más<br>gente se podrá suscribir, como te<br>animábamos a que lo hagas al eh al canal<br>de YouTube y pues poco a poco hacer<br>girar la rueda de la fantasía. Rafa te<br>pincho, cuéntame.<br>Tú esta web la reconoces, ¿no? Solo<br>viendo este cachito aquí.<br>Hostia, sí.<br>Google Trench. ¿Cuál crees que gana?<br>Últimos 12 meses.<br>Café con Codeti,<br>nuestro espacio matinal con las últimas<br>noticias sobre tecnología, programación<br>y cómo no, entretenimiento. [música]