Teknik 2 tim sedan

Anthropic har inte höjt priset på Claude. Han har uppfunnit något bättre: symbolisk inflation

"Oroa dig inte, det kostar lika mycket." Det var Anthropics budskap när de tillkännagav lanseringen av sin nya AI-modell, Claude Opus 4.7. I det uttalandet gjorde de det klart att "priset förblir detsamma som Opus 4.6: $5 per miljon inmatade tokens och $25 per million output tokens." Det fanns dock finstilt, eftersom modellen är bättre men för att uppnå det resonerar den mer, och det betyder en sak: fler tokens. Och ju fler tokens du konsumerar, desto mer ökar AI-räkningen.  Antropisk redan varnad. Det bör noteras att Anthropic inte dolde fakta i det officiella tillkännagivandet. I ett av styckena förklarade han tydligt hur Opus 4.7 "tänker mer" och det har en direkt inverkan på konsumtionen av tokens (vi markerar skillnaden i fetstil): "Opus 4.7 är en direkt uppdatering av Opus 4.6, men det finns två förändringar som bör beaktas, eftersom de påverkar användningen av tokens. Först och främst förbättrade Opus 4.7 den här modellen genom att använda den här modellen. innebär att samma input kan generera fler tokens (ungefär 1,0 till 1,35 gånger mer, beroende på typen av innehåll. För det andra utför Opus 4.7 djupare analys vid högre ansträngningsnivåer, särskilt i de senare faserna av agentscenarier. Detta förbättrar dess tillförlitlighet i komplexa problem, men innebär också att det genereras mer utdata vid användning av 4-ord föregångare, och det är viktigt eftersom output-tokens är mycket dyrare än dess föregångare. I det specifika fallet med Opus 4.7, fem gånger dyrare ($5 kontra $25). till enheter som kallas tokens, som är fragment av ord, symboler eller tecken. Tokenizern är mekanismen som gör att den omvandlingen har beslutat att uppdatera tokenizern i Opus 4.7, med argumentet att dess nya system förbättrar hur texten behandlas även om priset per token har förblivit detsamma. Bekräftat av tredje part Simon Willison, en välkänd analytiker och populariserare inom detta område, skapade ett verktyg för att mäta skillnaden i token-förbrukning med Claude Opus 4.6 och 4.7 API. genererade 7 335 output-tokens Det representerar en tillväxt på 1,46x tokens mellan Opus 4.6 och Opus 4.7, till och med större än vad som anges av Anthropic (1,35x för bilder är skillnaden ännu mer extrem eftersom token-konsumtionen är upp till 3,01x) för att det finns ett viktigt förtydligande av upp till 5 bildpunkter. öka avsevärt. Bill Chambers, en annan X-användare, publicerade ett annat verktyg som heter Tokenomics som också låter dig jämföra token-konsumtionen mellan båda modellerna. samma indata konverteras till fler input tokens. Det andra är det faktum att modellen nu "tänker mer" innan den svarar, vilket betyder mer token förbrukning med en ny "insats" nivå som kallas xhigh, som ligger mellan hög och max 4.7 tänker mer på höga ansträngningsnivåer, särskilt i senare vändningar i agentmiljöer. Detta förbättrar dess tillförlitlighet vid svåra problem, men det betyder att det producerar fler output-tokens."  Kritik på nätverk. Användarnas reaktion har varit tydlig och det finns olika exempel på nätverk som X eller Reddit där nämnda användare kritiserar förändringarna. På Reddit har en tråd med titeln 'Opus 4.7 är en allvarlig regression, inte en förbättring' redan 3 200 röster och 800 kommentarer som sammanfattar att den här nya modellen ignorerar instruktioner, hallucinerar och ljuger, är "dummare", har blivit för självbelåten eller till och med lat och "pratar för mycket", vilket också bidrar till kostnaden för varje konsultation.  Många klagar på att deras Pro och Max betalda gränser tar slut snabbare än tidigare på grund av dessa förändringar. Vissa användare hävdar att Opus 4.7 är det första tecknet på att Anthropic kan ha rört sig för snabbt för första gången när det kom till att lansera en ny modell. Antropisk reagerar. Kritiken mot modellens kostnad och beteende har fått de ansvariga för Anthropic att försöka klargöra saker och ting. Borys Cherny retweetade ett meddelande från företaget som talade om hur parametern "/usage" i Claude Code tillät oss att visa vilken typ av saker vår API eller användningsplan spenderas på. Samma ingenjör, som är den person som är mest ansvarig för utvecklingen av den ovannämnda Claude-koden, indikerade också att eftersom hans nya modell nu använder fler tokens, hade Anthropic ökat användningskvoterna för modellerna, dock utan att ge specifika detaljer. Det återkommande mönstret. För veckor sedan klagade användargemenskapen över att de märkte en "regression" i beteendet hos Opus 4.6. Även om det är omöjligt att verifiera eller validera det, klagade många användare online över hur modellens prestanda hade försämrats i sina tester. Nu har de precis lanserat en modell som lovar att bli bättre än den förra, men som slutar kosta mer att använda om man inte är försiktig. Båda händelserna ritar ett mönster: att Anthropic ökar sina intäkter utan att tillkännage prishöjningar som sådana.  {"videoId":"xa4n2g8","autoplay":false,"title":"Ett initiativ för att säkra världens mjukvara | Project Glasswing", "tag":"", "duration":"349"} Vad användare kan göra. Även om det är sant att Opus 4.7 förbrukar fler tokens som standard, är det möjligt att göra vissa justeringar för att försöka hålla nere kostnaderna. Ansträngningsparametern låter dig minska denna inställning från xhög till hög eller till och med medium för uppgifter som inte kräver så mycket resonemang. Det finns också nya sätt att sätta "uppgiftsbudgetar" för att begränsa de tokens som används i vissa processer, och för bilder kan vi minska utdataupplösningen. Dessutom är Opus 4.6 fortfarande tillgänglig för nu, så vi kan välja den (eller Sonnet 4.6) om vi tycker att den här versionen är värd det för oss. Det andra alternativet är förstås att använda andra AI-modeller som fungerar bra för oss och som är mer prisvärda, både i molnet och på plats.  Xataka |

Anthropic har inte höjt priset på Claude. Han har uppfunnit något bättre: symbolisk inflation

Originalkälla

Publicerad av Xataka

20 april 2026, 13:30

Läs original

Denna artikel har översatts automatiskt från spanska. Klicka på länken ovan för att läsa originaltexten.

Visa originaltext (spanska)

Rubrik

Anthropic no ha subido el precio de Claude. Ha inventado algo mejor: la inflación de tokens

Beskrivning

"No os preocupéis, que cuesta lo mismo". Ese fue el mensaje de Anthropic al anunciar el lanzamiento de su nuevo modelo de IA, Claude Opus 4.7. En ese comunicado dejaron claro que "el precio sigue siendo el mismo que el de Opus 4.6: 5 dólares por millón de tokens de entrada y 25 dólares por millón de tokens de salida". Había no obstante letra pequeña, porque el modelo es mejor pero para lograrlo razona más, y eso significa una cosa: más tokens. Y cuántos más tokens consumes, más sube la factura de la IA.  Anthropic ya avisó. Hay que destacar que en ese anuncio oficiial Anthropic no escondió los hechos. En uno de los párrafos explicaba claramente cómo Opus 4.7 "piensa más" y eso tiene un impacto directo en el consumo de tokens (destacamos en negrita la diferencia): "Opus 4.7 es una actualización directa de Opus 4.6, pero hay dos cambios que conviene tener en cuenta, ya que afectan al uso de tokens. En primer lugar, Opus 4.7 utiliza un tokenizador actualizado que mejora el procesamiento del texto por parte del modelo. Esto implica que la misma entrada puede generar más tokens (aproximadamente entre 1,0 y 1,35 veces más, según el tipo de contenido). En segundo lugar, Opus 4.7 realiza un análisis más profundo en niveles de esfuerzo mayores, especialmente en las últimas fases de los escenarios con agentes. Esto mejora su fiabilidad en problemas complejos, pero también implica la generación de más tokens de salida".O lo que es lo mismo: cuando responde, Opus 4.7 usa bastantes más tokens que su predecesor, y eso es importante porque los tokens de salida son mucho más caros que los de entrada. En el caso concreto de Opus 4.7, cinco veces más caros (5 dólares frente a 25). En Xataka La “economía de los tokens” se ha roto: las tarifas planas de IA para programar son matemáticamente insostenibles Qué es un tokenizador y por qué importa. Los grandes modelos de lenguaje (LLM) no procesan texto directamente, sino que lo convierten en unidades llamadas tokens, que son fragmentos de palantas, símbolos o caracteres. El tokenizador es el mecanismo que hace esa conversión. Anthropic ha decidido actualizar el tokenizador en Opus 4.7, argumentando que su nuevo sistema mejora cómo se procesa el texto. La consecuencia directa: el prompt que antes generaba 1.000 tokens ahora genera hasta 1.350. Y como se factura por token, el coste efectivo sube aunque el precio por token se haya mantenido. Confirmado por terceros. Simon Willison, conocido analista y divulgador en este terreno, creó una herramienta para medir la diferencia de consumo de tokens con la API de Claude Opus 4.6 y 4.7. Cogió el 'system prompt' oficial de Opus 4.7 y lo pasó  por ambos modelos: Con Opus 4.6  generó 5.039 tokens de salidaCon Opus 4.7 generó 7.335 tokens de salida Eso represnta un crecimiento de 1,46x tokens entre Opus 4.6 y Opus 4.7, mayor aún que el que indicaba Anthropic (1,35x). Para imágenes la diferencia es aún más extrema ya que el consumo de tokens es de hasta 3,01x. Aquí hay una aclaración importante, porque hay soporte para imágenes de hasta 3,75 Mpíxeles y esa mayor resolución hace que el consumo aumente de forma notable.  Bill Chambers, otro usuario de X, publicó otra herramienta llamada Tokenomics que también permite comparar el consumo de tokens entre ambos modelos con cualquier prompt. El ranking agregado de todos los usuarios que han probado esta herramienta demuestra que el aumento promedio es del 38,6%, muy en la línea de lo que apunta Anthropic. Y además piensa más. Como decíamos, este nuevo modelo aplica dos cambios en su forma de actuar. La primera es el citado tokenizador:  la misma entrada se convierte en más tokens de entrada. La segunda es el hecho de que ahora el modelo "piensa más" antes de responder, lo que implica un mayor consumo de tokens. Opus 4.7 llega con un nuevo nivel de "esfuerzo" llamado xhigh, situado entre high y max. Anthropic ha decidido que ahora el esfuerzo por defecto será precisamente xhigh para todos los planes, así que ambos mecanismos contribuyen a ese mayor consumo de tokens. Como indica la propia Anthropic,  "Opus 4.7 piensa más en niveles de esfuerzo alto, particularmente en turnos posteriores en configuraciones agénticas. Esto mejora su fiabilidad en problemas difíciles, pero sí significa que produce más tokens de salida".  Críticas en redes. La reacción de los usuarios ha sido clara y hay diversos ejemplos en redes como X o Reddit en los que dichos usuarios critican los cambios. En Reddit un hilo titulado 'Opus 4.7 es una regresión seria, no una mejora' tiene ya 3.200 votos y 800 comentarios que se resumen en que este nuevo modelo ignora instrucciones, alucina y miente, es "más tonto", se ha vuelto demasiado complaciente o incluso perezoso, y "habla demasiado", lo que también contribuye al coste de cada consulta.  Muchos se quejan de que los límites de sus de pago Pro y Max se acaban más rápido que antes debido a esos cambios. Algunos usuarios afirman que Opus 4.7 es la primera señal de que Anthropic quizás haya ido demasiado deprisa por primera vez a la hora de lanzar un nuevo modelo. Anthropic reacciona. Las críticas por el coste y el comportamiento del modelo han hecho que los responsables de Anthropic traten de aclarar las cosas. Borys Cherny reuiteaba un mensaje de la empresa en el cual se hablaba de cómo el parámetro "/usage" en Claude Code permitía mostrar en qué tipo de cosas se gasta nuestra API o plan de uso. Este mismo ingeniero, que es el máximo responsable del desarrollo del citado Claude Code, también indicaba que dado que su nuevo modelo ahora usa más tokens, en Anthropic habían incrementado las cuotas de uso de los modelos, aunque sin dar detalles específicos. El patrón que se repite. Hace semanas la comunidad de usuarios ya se quejó de que notaba una "regresión" en el comportamiento de Opus 4.6. Aunque es imposible verificarlo o validarlo, fueron muchos los usuarios que se quejaron en redes de cómo el rendimiento del modelo había empeorado en sus pruebas. Ahora acaba de lanzar un modelo que promete ser mejor que el anterior, pero que acaba costando más usar si uno no tiene cuidado. Ambos sucesos dibujan un patrón: el de que Anthropic está aumentando sus ingresos sin anunciar subidas de precio como tal.  {"videoId":"xa4n2g8","autoplay":false,"title":"An initiative to secure the world's software | Project Glasswing", "tag":"", "duration":"349"} Qué pueden hacer los usuarios. Aunque es cierto que Opus 4.7 consume más tokens por defecto, es posible hacer algunos ajustes para tratar de contener los costes. El parámetro de esfuerzo permite reducir ese ajuste de xhigh a high o incluso a medium para tareas que no requieran tanto razonamiento. Hay también nuevas formas de establecer "presupuestos de tareas" para limitar los tokens que se usan en ciertos procesos, y en las imágenes podemos reducir la resolución de salida. Además, Opus 4.6 sigue disponible por ahora, con lo que podemos optar por él (o por Sonnet 4.6) si creemos que esta versión nos compensa. La otra alternativa, por supuesto, es utilizar otros modelos de IA que nos funcionen bien y sean más asequibles, tanto en la nube como locales.  Xataka |

2 visningar
Dela:

Svep för att byta artikel

Vi använder cookies

Vi använder cookies för att förbättra din upplevelse på vår webbplats. Genom att klicka "Acceptera alla" samtycker du till användningen av alla cookies. Läs mer i vår cookiepolicy och integritetspolicy.