una captura de imagen esta mañana para<br>poderla debatir ahora también y es que<br>dice esto, por ejemplo, es el panel de<br>usage, el dashboard de uso de eh la<br>cuenta de cloud de cursor que tenemos en<br>a nivel de empresa en Codel. Entonces<br>ahí tú ves cada interacción, ¿no?, que<br>se hace con cursos de cada miembro del<br>equipo. Entonces, ves cuántos tokens ha<br>usado y qué coste ha tenido. En este<br>caso, estamos viendo una llamada que ha<br>gastado 3,illon y 600,000 tokens y ha<br>costado $ y pico. Eh, una llamada y<br>dices, "Hostia, 3,illones y medio de<br>tokens así del tironazo. Javi, pero qué<br>mierda has hecho! Ojo, de input hay<br>bastante, ¿eh? De input hay 326,000.<br>Pero representativamente en los 3<br>m000ones es un porcentaje muy bajo.<br>Donde está la madre del cordero es en<br>los casi 3 millones que se lleva ya<br>cacher reit. Esto es lo clave para<br>entender cómo poder reducir el coste y<br>optimizar el uso que hagas, eh, porque<br>no solo es una cuestión de coste,<br>también es de eficiencia en el uso de la<br>IA a la hora de programar. Entonces,<br>[música]<br>cuando vemos estos 3,6 millones de<br>tokens, que no es lo mismo que ves en tu<br>cursor cuando ves ahí el circulito de<br>contexto, ahí solo ves lo del input.<br>Entonces, cuando ves esto en el panel de<br>uso, eh, ves el desglose incluso, ¿no? Y<br>ves esto de cacherry, dices, "Hostia,<br>casi 3 millones [música] de tokens que<br>ha leído de la caché para un promp que<br>era relativamente, vamos a decir,<br>sencillo. ¿Qué pasa? ¿Qué entra de esto<br>de caché? Si era el primer mensaje que<br>le envío. Pues dentro de la caché, ni<br>más ni menos, queridos amigas, queridos<br>amigos, lo que entra es también el<br>código que tiene indexado Cursor. Cursor<br>lo que hace es indexar toda tu base de<br>código del repositorio para que cuando<br>la necesite buscar ahí y eh traérsela al<br>contexto de el modelo para que este<br>ahora sí pueda dar una mejor respuesta.<br>Entonces entran cosas como eso, entran<br>cosas como las herramientas de sistema<br>de tools que le dé ya cursor, las tools<br>que tú le hayas dado a nivel de MCP, a<br>nivel de las descripciones, ojo, todo<br>eso eh entra en la cache, con lo cual lo<br>que optimicemos de eso, pues será coste<br>y eficiencia, eh porque recordemos está<br>por un lado la ventana de contexto y por<br>otro lado está la ventana de atención.<br>Todo lo que engordemos el contexto con<br>cosas innecesarias que provoquen ruido,<br>pueden despistar a la gente y provocar<br>que las respuestas que dé sean peores<br>que las que nos daría sin a lo mejor ese<br>servidor MCP con 28 herramientas que<br>tienes ahí metido José Luis, que lo<br>sabemos y no lo usan nunca. Entonces,<br>¿esto a dónde me lleva? analizar los<br>costes de cursor eh por token. Entonces,<br>aquí en esta página de la documentación<br>tienes los modelos, que es la primera<br>tabla de capacidades que tiene, pero la<br>segunda tabla es la interesante que son<br>el pricing. Y aquí es un momento<br>revelador que puede suponer el el<br>divagar o el entender estas cosas. Y es<br>que<br>los precios a los que Cursor te ofrece<br>eh los distintos modelos son los mismos<br>precios que si fueras directamente a<br>través de la API. Es decir, si yo me voy<br>a la página de pricing de Antropic de<br>cloud.com<br>pricing y veo aquí cuánto cuesta el<br>modelo Opus 4.6, vemos que de input<br>tiene $ por millón de tokens. Si me voy<br>a la de cursor que veíamos y vemos Opus<br>46<br>por millón de tokens, entonces aquí pasa<br>algo interesante y es, hostia, cursor<br>realmente no está sacando pasta de esto<br>porque va a través de API. Entonces, a<br>nivel de precio, cursor lo que te da es,<br>oye, eh todos los planes tienen una<br>cuota eh de uso de tokens incluida. Por<br>ejemplo, el plan de $20, el Pro creo que<br>se llama, pues tiene eh eh tiene<br>incluido $20 de uso de esto. El plan<br>Teams, ojo, cuidado que aquí sí que hay<br>diferencia para empresas, es $40 por<br>usuario al mes y te incluye $20 de uso,<br>todo lo demás lo pagas. Y además hay<br>algo que no lo ponen en esta página,<br>pero sí en la de empresas, [música]<br>y es que ellos te cobran 25 céntimos de<br>dólar por cada millón de tokens<br>adicional, solo si tienes una cuenta de<br>Teams. Con lo cual, si tienes una cuenta<br>individual, eso no lo pagas. Con lo cual<br>pagas lo mismo que si tuvieras la<br>suscripción a Cloud Code y tu hubieras<br>acabado el uso que te incluye la<br>suscripción. Entonces, [música]<br>eh eso sí también diferencia el si<br>seleccionas auto que deje que él<br>selecione el modelo, el precio es fijo y<br>lo determina en base a pues la<br>disponibilidad, la demanda actual y toda<br>la mierda esta, pero que resuben aquí,<br>no nos olvidemos, la banca siempre gana,<br>es decir, no te van a estar dando Opus<br>46 al precio de cursor uno, entonces<br>tampoco seamos ingenuos. Entonces,<br>eso ya lo hicieron en cursor al<br>principio de de hace un año, justo hace<br>un año, lo hicieron y dejaron de hacerlo<br>porque le salía muy caro y estaban<br>quemando mucho dinero.<br>A aquí todo hasta ahora han sido datos.<br>Esto que he dicho yo de la vaca sin<br>pregana, eso es especulación, lo<br>admitimos. mea culpa si queréis, pero mi<br>opinión por algún lado al final se acaba<br>colando. Entonces, por ir acotando el<br>tema y convergiendo en algo interesante,<br>primero eh estamos hiperchetados, es<br>decir, estamos hipersubvencionados con<br>las suscripciones de Cloud Code en el<br>momento en el que las suscripciones eh<br>que tienen un uso hiperetéreo, o sea, tú<br>te vas a mirar el modelo de precios, que<br>es lo que hemos hecho esta semana y tal,<br>así en detalle, que esto se traducirá en<br>cursos para, bueno, pues al final eh<br>también poderle sacar un rendimiento por<br>nuestra parte. Entonces, si queréis<br>apoyar a que os traigamos estas cosas,<br>eh, pero más cuidadas y con mejor todo,<br>pues podéis suscribir a Codel Pro.<br>Entonces, eh, esta semana es como,<br>hostia, claro, es que la suscripción de<br>Cursor es No, la Pro es seis veces25<br>el uso de la estándar de la la de<br>empresas estándar es seis veces eh, coma<br>25 por el uso incluido en la suscripción<br>pro. dices, "Ah, vale, la referencia es<br>la Pro, voy a verme la Pro." "Vas a ver<br>la Pro." Y dice, "No, esto es, no sé,<br>otro multiplicador de la versión<br>gratis." Dices, "Ah, vale, que la<br>referencia es la gratis. Me voy a verla<br>gratis." Te vas a verla gratis. Uso que<br>te incluye. Bueno, sí, te incluimos ahí<br>unos cuantos tokens. Dices, "Ah, vale,<br>de puta madre." Pues pues ya está, ¿no?<br>O sea, bajo demanda tú vas a cambiar<br>esto cuando veas que tienes una cuota de<br>mercado que te permita hacer patapam y<br>ya está, porque es lo que está pasando y<br>a partir de ese momento todo el mundo a<br>pagar por API igual que pagas a día de<br>hoy en cursos.<br>[música]<br>Entonces,<br>esto es un poco toda la movida y por eso<br>es tan importante el modelo de precio,<br>entender el modelo de precio, porque<br>veíamos aquí que, por ejemplo, estábamos<br>hablando de $ por millón de token en el<br>[música] caso de eh Opus eh Opus 46,<br>¿no? Y eso era de input. Pero ojo<br>importante, si nos vamos a mirar cacher<br>readit [música] es solo 50 céntimos de<br>dólar. O sea, hemos saltado un orden de<br>magnitud, con lo cual es 10 veces menos,<br>es 10 veces más barato, con lo cual me<br>interesa muchísimo que pasen cosas de<br>tokens [música] en catch rit y no en<br>input, porque un cache hit, hostia, me<br>divide por 10 el precio. Con lo cual es<br>interesante entender este artículo a<br>pesar de que sea de cloud code porque<br>las técnicas que aplican en cursos son<br>tremendamente similares, ¿no? Entonces,<br>habla del orden en el que poner las<br>cosas para permitir más cacheo. Habla de<br>un poco cómo compactar para eh o lo que<br>pasa cuando, por ejemplo, tú usas<br>subagentes. Cuando usas subagentes, el<br>agente principal hace una compactación<br>del contexto y se la pasa al subagente<br>para que este pueda reutilizar la caché<br>que ya haya de cosas que ya haya<br>consultado el agente principal. Pero<br>cuando tú estás en una sesión, y vuelvo<br>a lo que comentabas, Raf, y en una misma<br>sesión, en una misma conversación<br>cambias el modelo porque dices, "Hostia,<br>he programado todo esto con Opus 46 y<br>ahora solo le quiero hacer una pregunta<br>de por qué ha decidido hacer esta<br>implementación así y no hacerlo con esta<br>otra cosa, que es como lo habría hecho<br>yo." La típica pregunta esa que dice,<br>"Vale, pues para esto selecciono Haiku,<br>que ya me lo va a poder explicar.<br>Cagadita Pasturet. Cagada Pasturet."<br>¿Por qué? Porque en ese momento que tú<br>has seleccionado otro modelo, ese modelo<br>no tiene contexto y no tiene la caché, o<br>sea, tiene que reconstruir el contexto<br>de toda la conversación. Por lo tanto,<br>no va a ser tanto eh no va a ser tan<br>elevado el hit rate como si directamente<br>se lo preguntas a Oppus 46, que puede<br>que te salga más barato. Entonces, la<br>pregunta aquí es, Rafa, ¿esto se publica<br>anoche? Anoche yo me empapo, entiendo<br>cómo funciona todo esto. Antes de ayer<br>publicábamos el artículo de lo que<br>acabas de comentar de Opus para planear,<br>que es algo que veníamos diciendo, es<br>algo que va y viene. Eh, hace un año era<br>santo, palabrita de Niño Jesús, ¿no? De<br>opus para planificar, Sonet para<br>ejecutar. Luego se abarataron las<br>costes, las diferencias y era Sonet para<br>todo. Ahora vuelve a haber diferencias y<br>dices, hostia, no. El modo Opus Plan es<br>lo que recomendamos. [música] Y la<br>pregunta es, si hacemos eso, ¿no estamos<br>incurriendo en esto que hablamos?<br>Cloud Code hace cosa de un mes, mes y<br>medio cambió también una cosa que es<br>cuando haces el modo plan y le vas a<br>ejecutar. La opción por defecto no es<br>ejecutar el modo plan, es limpiar el<br>contexto y ejecutar.<br>Entonces, claro, de limpiar el contexto<br>y ejecutar a cambio el modelo que se va<br>a limpiar el contexto de todas formas,<br>si voy a ejecutar como mucho está esa<br>parte de caché que puede utilizar o no,<br>pero no sé si al limpiar el contexto ya<br>deja de usar esa caché también porque es<br>como una nueva conversación que le pasa<br>el contexto.<br>Es interesante, queridos amigos, porque<br>eh ahora dicho esto y me has<br>triguereado. Claro, la respuesta está<br>directamente en el post y es que el<br>cambio ese que hicieron era que en vez<br>de entrar al modo plan y limpiar o otro<br>cambio que hicieron después, no lo sé,<br>pero a día de hoy el modo plan no parte<br>de cero en el contexto, sino que en<br>verdad es ejecutar una tool de enter<br>plan mode y exit mode,<br>con lo cual realmente estás en esa misma<br>sesión, pero has ejecutado esa tool,<br>con lo cual<br>Sí que presumiblemente el ese cambio de<br>modelo dentro de ese uso en particular<br>sí que<br>aprovecharía toda la caché que se<br>hubiera generado porque se está haciendo<br>a través de estas tool de enter y exit<br>mode, ¿no? Entonces el cambio si si se<br>aprovecha pierde el sentido, sí, 100%<br>porque saldría más barato con opus. Y<br>también caba decir depende el plan que<br>tengas si tienes un plan de max eh por<br>cinco donde ya no llegas al límite tira<br>todo con opus porque va a ir mejor.<br>Cuando tienes menos pasta, ahí es cuando<br>tienes que ir jugando y probando ver qué<br>es lo más óptimo y qué es lo que más te<br>hace durar tus tokens. Es un poco<br>mierder todo esto porque esto sería como<br>sumamente fácil de validar, ¿no? De<br>decir, "Bueno, pues haces la prueba, ves<br>qué contexto ha usado, que no, pero el<br>problema es que lo máximo que tienes es<br>el barractext, eh, la tuash command este<br>de barra context, que sí te dice lo que<br>tienes en contexto, pero no te dice<br>estadísticas de hit rate y mierdas así a<br>ese nivel. Y en el caso de cursor te lo<br>desglosa un poco, pero te lo desglosa<br>por petición, con lo cual tampoco acabo<br>de poder hacer esto, ¿no?, que decimos.<br>Con lo cual eh, ah, qué rabia, tío, no<br>poder ver estas cosas. Si se ocurre eh<br>forma, pues eh encantados. Cusat que te<br>dice alguna cosa, pero te la agrupo por<br>día, no es no es quiero analizar esta<br>conversación, que es lo que ha pasado.<br>Sí, sí. Así que totalmente abiertos a a<br>que nos digáis cosas. Y encima estuve<br>mirando también los hooks para ver si a<br>través de hooks podíamos tener reporting<br>de esto. Y hay una feiture request en la<br>community de Cursor que buena suerte<br>porque creo que el primer voto que se le<br>daba era el mío, entonces dudo mucho que<br>hagan nada porque haya esa feiture<br>request, que es que eh eso el hook de<br>que ha acabado una interacción tuviera<br>el análisis de cuántos tokens ha leído<br>de caché, cuánto y con eso ya te<br>enganchas a ese hook y haces lo que sea,<br>permites hacer herramientas de análisis,<br>mierdas así, pero de momento no lo<br>tenía. Eh, se me ha ido esta noticia de<br>madres más parecida a un eh vídeo de<br>Codeli más que noticia del café con<br>Codeli. Decidnos qué os ha parecido en<br>los comentarios y eh seguramente haremos<br>un corte para publicarlo como vídeo<br>porque creo que hay eh muchas lecturas<br>interesantes. También el autocatching es<br>algo, por destacar también algo de todos<br>estos artículos,<br>es algo que ahora como se establece es<br>así, es decir, tú tienes toda la cadena<br>de mensajes de roll user asistan y tal y<br>lo que hace Cloudco por debajo es<br>simplemente a la hora de interaccionar<br>con el modelo es pasarle este cache<br>controlemal, pero antes es algo que<br>también hacía en Cloud Code, el tema de<br>la caché venía ya estando, no decimos<br>que se haya implementado ahora la caché,<br>lo que decimos es que es nuevo y que la<br>forma de hacerlo antes era a través de<br>eh break points que eh aquí le ponías el<br>cache control en el mensaje y tenías tú<br>desde el cliente, desde la gente que ir<br>moviendo este cache control, ¿no? Por<br>así decirlo. Entonces eh ahora como que<br>se simplifica todo eso mucho más y<br>bueno, pues lo tenemos ahí. Siguiente<br>noticia. Rafincho. Yo entiendo 100% que<br>Cloud Code no quiera que usen su<br>subvención en otros sitios. O sea, oye,<br>estamos teniendo Cloud Code con una<br>subvención muy grande, o sea, puedes<br>usar mucho más tokens que si vas por la<br>API directamente, pues entiendo que no<br>quieras que un Open Code use por detrás<br>tu suscripción. Oye, no, si es por Open<br>Code, tú pagas por token, por uso,<br>porque esto aquí es para mi herramienta<br>que le estamos dando cariño, le estamos<br>dando forma y porque queremos que te<br>vicies en nuestro ecosistema y acabes<br>también pagando la parte B2B, que es<br>donde sacan más pasta. Tanto aquí como<br>ahora pasa mucho, ¿no?, que ha habido el<br>ruido de de oye, Cloud Code solo se<br>puede usar en Cloud Code, ya han hecho<br>oficial, no se puede usar en open crow.<br>Ya ya ahí ya no se puede. Ahí ya tenemos<br>que ahí se quita porque mucha gente está<br>usando una suscripción solo para eso<br>vamos a banear esas cuentas. Entonces<br>eso puede pasar. Esto es sentido, o sea,<br>he visto mucha entiendo.<br>Esto es la palabra de mod, el agent<br>harness, ¿no? Que es como toda esa<br>cáscara que es el que provee el el<br>agente, ¿no? Eh, a la hora de<br>interaccionar con un determinado modelo,<br>¿no? Por eso es diferente interaccionar<br>con un Opus 46 desde cursor que<br>interaccionar con ese mismo Opus 46<br>desde Cloud Code, ¿no? que pues, por<br>ejemplo, lo que hablamos de que cursor<br>indexa toda la base de código, esa lo<br>hará de forma diferente Cloud Code.<br>Entonces tiene sentido lo que planteas.<br>Veremos a ver cómo evoluciona todo. Lo<br>que es guay es que tengamos la suerte de<br>que haya competencia entre pues un Open<br>AI, un Antropic, un [música] quien sea,<br>¿no? Eh, así que<br>y uno que nos olvidamos que ahora te lo<br>enseño.<br>Vale, perfecto. Pues gente, sillas si os<br>interesan estas cosas ya sabéis,<br>intentamos traeros noticias frescas y<br>calidad que aprendamos todos. Codel y<br>enseña, entretiene que decimos. Así que<br>eh si os gusta pues recomendamos y<br>agradecemos más que recomendamos,<br>agradecemos enormemente si pasáis el<br>enlacito de oye, mirad este café con<br>Codel y que hoy han hablado de esto que<br>en el curro creo que pues nos ayudaría a<br>reducir el gasto o creo que son cosas<br>que no estamos teniendo en cuenta a la<br>hora de usar la IA. Eh, mírate este<br>minuto cuando empiezan a hablar del tema<br>de la caché y de los distintos eh tokens<br>que al final estamos consumiendo y que<br>no tenemos visibilidad directamente<br>desde el cliente, por ejemplo, en el<br>caso de cursor o cosas así, pues se<br>agradece enormemente porque así más<br>gente se podrá suscribir, como te<br>animábamos a que lo hagas al eh al canal<br>de YouTube y pues poco a poco hacer<br>girar la rueda de la fantasía. Rafa te<br>pincho, cuéntame.<br>Tú esta web la reconoces, ¿no? Solo<br>viendo este cachito aquí.<br>Hostia, sí.<br>Google Trench. ¿Cuál crees que gana?<br>Últimos 12 meses.<br>Café con Codeti,<br>nuestro espacio matinal con las últimas<br>noticias sobre tecnología, programación<br>y cómo no, entretenimiento. [música]