Para asistentes personales Claude es, sin duda, mi modelo favorito

La barra libre de tokens se acaba y todo se mide: optimizar por densidad útil convierte al asistente en una hoja de cálculo con autocompletado.

Para asistentes personales Claude es, sin duda, mi modelo favorito.

No es solo que conteste mejor o peor, es que el trato es distinto. Tiene una calidez en el tono que no encuentro en otros modelos: te deja espacio, matiza, no va al grano con la prisa de quien quiere cerrar un ticket (cuando llevas currando un rato, entonces ya sí xD). Cuando lo uso para pensar, redactar o decidir, parte de lo que lo hace útil no es la respuesta final, es el camino conversacional para llegar a ella.

Y esto no es por casualidad. Anthropic lleva desde Claude 3 con un proceso explícito que llaman “character training”: entrenan al modelo para ser curioso, paciente, ingenioso, capaz de ver varios lados sin ponerse pesado. Las comparativas independientes lo describen siempre igual; ChatGPT suena más entusiasta y robótico, Gemini funcional pero plano, Claude más humano y matizado. Para tareas mecánicas da igual, para acompañarte en el día a día, no.

Hasta ahora ese matiz te salía gratis. La barra libre de tokens (con lo que miden tu consumo) tapaba la pregunta. El problema es que la barra libre se está acabando.

GitHub anunció que mata la tarifa plana de Copilot en junio: pagas por consumo de tokens, igual que la luz. Anthropic cortó el acceso a OpenClaw y otros inventos que reutilizaban suscripciones de tarifa plana para alimentar agentes propios, y OpenAI ha colado un plan Pro de 100 dólares pegado al Claude Max, mientras admiten que el “ilimitado” se va a “evolucionar significativamente”. La IA está dejando de ser un buffet libre y empieza a parecerse a una factura de electricidad.

Cuando los tokens dejan de ser invisibles, todo se mide. Estos días circula por foros freaks un dato concreto: en una sesión de Claude de 80-120k tokens, solo 8-12k eran trabajo real. El resto, asentimientos, tangentes, explicaciones que no pediste y bucles de “lo entiendo, voy a proceder a…” sin ejecutar. Mucha gente lo lee como un x10 vacío: quita lo blando, quédate con la chicha.

Y aquí es donde creo que el tema se pone interesante, porque parte de “lo blando” es justo eso que hace que Claude se sienta cercano. Si optimizas solo por densidad útil, lo que te queda no es un asistente más eficiente, es una hoja de cálculo con autocompletado.

La pregunta ya no es si el modelo es bueno o no, es si estás dispuesto a pagar por el tono. Si ese rato de conversación que parece sobrar es lo que te ayuda a pensar mejor, igual no era ruido.

¿Pagarías el extra por mantener la calidez, o irías directo al modelo más quirúrgico y barato? Yo lo tengo claro