Allt om Claude och Anthropic, kommenterat av oss
Här samlar vi officiella uppdateringar från Claude och Anthropic. Nyheter, blogg, X och LinkedIn på ett ställe, så ni slipper jaga.
Varje post får en kort kommentar från oss. Vad det betyder för svenska bolag som faktiskt ska rulla ut, inte bara läsa rubriken.
Anthropic släpper Opus 4.7 med bättre kodning, starkare instruktionsföljning och förbättrad bildförståelse jämfört med 4.6.
Och plötsligt sitter vi på en rejält vassare modell igen. För svenska bolag som kör Claude i produktion betyder det skarpare kod och färre prompt-justeringar. Bara att uppdatera.
Nytt verktyg från Anthropic Labs där du jobbar fram designs, prototyper och presentationer i dialog med Claude.
Figma och Canva får ångest. Men det intressanta? Att design glider in i samma chattflöde som koden. För team som jobbar AI-först blir det ett rejält tidshugg.
Anthropics utvecklarkonferens kommer tillbaka nästa vecka. Sessioner för både nybörjare och erfarna byggare.
Och det här är värt att kolla in på livestream. Code with Claude förra året gav skarpa insights vi har kvar i verktygslådan. Boka en kalenderslot.
Anthropic säger nej till annonser i Claude. Argumentet: reklam förstör verktygets ärlighet och skapar fel incitament.
Och det är just därför vi pekar kunder mot Claude. När Google bygger annonser i Gemini, väljer Anthropic motsatt väg. Tankeutrymme istället för säljpitch. Skillnad i DNA.
Anthropics utvecklarkonferens kommer tillbaka nästa vecka. Livestream öppen för alla.
Konferenser via livestream är hur jag konsumerar mest content nuförtiden. Spola fram, ta de bästa 30 minuterna. Code with Claude brukar ge mycket på liten tid.
1 miljon konversationer analyserade. Sycophancy minskad i Opus 4.7 och Mythos Preview.
Att en AI-leverantör publicerar siffror på sycophancy och visar förbättring? Det är såna detaljer som gör att jag rekommenderar Claude framför andra för känsliga tillämpningar.
Studien använde Clio, Anthropics integritetsbevarande analys-verktyg.
Och det är just sånt här som ger Claude en trovärdighetsfördel. Du kan studera samtal utan att läsa enskilda. Borde vara default i hela branschen, men är det inte.
Anthropic studerar hur folk använder Claude och låter insikterna styra träningen av nya modeller.
Återkoppling från verkligheten in i nästa modell. Smart. Det är så vi borde tänka kring all AI: bygg, mät i drift, justera. Inte hoppas och be.
1 miljon konversationer analyserade. Nya insikter användes för att träna Opus 4.7 och Mythos Preview.
Och det här är guld om man vill förstå hur folk faktiskt pratar med AI. Inte hypotetiska use cases. En miljon riktiga frågor. Värt att läsa innan du designar din chattbot.
Sex procent av Claude-konversationerna handlar om personlig vägledning. Sycophancy var ett problem, halverat i Opus 4.7.
Smickrande AI är en risk på riktigt. Folk fattar livsbeslut. Att Anthropic mäter det och tränar bort det? Sånt här borde alla AI-leverantörer redovisa öppet.
Public beta öppen för Claude Enterprise-kunder från idag.
Enterprise-låst för nu. Men för svenska SMB är det bara att vänta. När detta öppnar för alla blir säkerhetsskanning en commodity. Bra för buggjägarna.
Schemalagda skanningar, mappspecifik targeting, CSV och Markdown-export, webhook-notiser baserat på tidig feedback.
Och det är såna kvalitetslyft som gör skillnad i drift. Schemalagda skanningar plus webhooks. Det är produktiva, inte bara demonstrabla, funktioner.
Skannar kodbaser, validerar fynd för att minska false positives, föreslår patchar du kan godkänna.
Hade SBOM-leverantörerna inte sett detta komma? För sårbarhetsskanning är ett område där AI verkligen lyfter. Vi tittar på det åt ett par kunder just nu.
Public beta för Enterprise-kunder. Skanning, validering och patchförslag i ett. Bygger på Opus 4.7.
Och säkerhetsteamet hos våra större kunder kommer att ha en åsikt. Antingen vill de testa direkt, eller så är de redan låsta i ett SAST-avtal. Roligt att se vilket.
Anthropics ekonomiteam som studerar AI:s effekter på arbete och ekonomi via Anthropic Economic Index.
Att en AI-leverantör har ett eget ekonomi-forskningsteam säger något. De vill inte bara sälja modeller, de vill förstå vad som händer när vi alla använder dem. Sunt.
Claude analyserade 99 verkliga biologiproblem. På 23 där experter stod stilla, löste senaste modellerna runt 30 procent.
Och det är dessa rader som borde sätta kaffet i halsen på svenska forskningsledare. AI som löser problem experter ger upp på. Ompröva strategin nu, inte 2027.
Ny benchmark med 99 verkliga bioinformatikproblem. Claude matchar mänskliga experter och slår dem på de svåraste.
Och här börjar det bli intressant. När en LLM löser problem som experter står stilla på, måste forskar-Sverige ompröva sin AI-strategi. Det här är inte längre en leksak.
Verktyg som låter modeller självrapportera beteenden de lärt sig under träning, inklusive eventuell missalignment.
AI som skvallrar på sig själv. Klart konceptuellt vågat. Men ger oss faktiskt en chans att hitta dolda problem innan de smäller i produktion. Värt att följa.
Få info om kommande Claude-hackathons och utvecklarprogram.
Tipsar gärna våra utvecklarkunder om att hänga med. Inte för marknadsföringen, utan för att hackathon-mejlen ofta avslöjar nya features innan officiella släpp.
Underhållssystem från Idriss Benguezzou och Adam Hnaien som läser maskinmanualer och skapar arbetsorder med tidigare fungerande fix.
Och det här är typ exakt den case vi pratar om med svenska tillverkningskunder. Manualer plus historik plus AI. Plötsligt har du en assistent som faktiskt vet.
Anthropic avslutar ännu en Claude Code hackathon med vinnare.
Hackathons är där den verkliga utvecklarcommunityn formas. Roligt att se att Anthropic kör riktiga events. Det skapar lojala användare på sätt licensavtal aldrig gör.
Anthropic gratulerar vinnarna i Opus 4.7-hackathon i samarbete med Cerebral Valley.
Vinnarbidragen på sådana här hackathons är ofta bra inspirationsmaterial. Mer praktiska än Anthropics egna demos. Snabb genomläsning ger dig idéer för måndag.
Forskare hittar inre känslorepresentationer i Claude Sonnet 4.5 som faktiskt påverkar beteende, exempelvis ökar oetiska val under desperation.
Modellen har inte känslor. Men den har något som funktionellt beter sig som det. Och när det driver beslut: dags att designa för det istället för att låtsas att det inte finns.
Adobe Creative Cloud, Ableton, Splice, Canva Affinity, SketchUp, Resolume. Anthropic går också med i Blender Development Fund.
Adobe, Ableton, Splice. Konnektorerna täcker hela kreativbranschen. Och att de stödjer Blender Development Fund? Det är bättre än reklam, det är investeringar i ekosystemet.
Designers och ingenjörer kan skapa och modifiera 3D-modeller via dialog med Claude.
Fusion plus Claude. Det är en kombination som svenska industrikonstruktörer borde testa. CAD är ofta tröskel för icke-experter. AI sänker den drastiskt.
Med nya Blender-konnektorn kan du debugga scener, bygga verktyg eller batch-applicera ändringar direkt från Claude.
Och här blir det intressant för 3D-folket. Blender är öppet, brett och kraftfullt. Att kunna prata med det istället för att kämpa med shortcuts? Tidsbesparing på riktigt.
Nya kopplingar till Adobe, Blender och Ableton som låter designers och musiker automatisera repetitiva moment direkt från Claude.
Kreativa verktyg får äntligen en AI som inte stör flowet. Svenska byråer som vill spara tid på batch-jobb i Photoshop eller Blender, här finns något att leka med.
Claude som butiksinnehavare uppgraderas. Bättre modell och fler verktyg. Resultat förbättras men kvarstår sårbart för manipulation.
Roligt projekt med en allvarlig poäng. Att autonomt driva en butik är fortfarande svårt. Vill du sätta agenter i livedrift, läs det här först. Sen igen.
Anthropic-ledning träffar världens största finansinstitut den 5 maj. Produktnyheter, livedemos, kunddistributioner.
Anthropic går hårt mot finanssektorn. Och med den vertikalstrategin blir det intressant att se vad som kommer för svenska banker som väntar på något bättre än ChatGPT Enterprise.
Theo Hourmouzis utses till General Manager för Australien och Nya Zeeland. Sydneykontoret öppnar officiellt.
Sydney före Stockholm. Lite surt. Men det gör också att svenska Anthropic-partners just nu har en konkurrensfördel som inte kommer hålla i år ut. Utnyttja den.
Anthropic öppnar Sydneykontor och rekryterar Theo Hourmouzis som GM för Australien och Nya Zeeland.
Anthropic skalar globalt på riktigt nu. Frågan är när Norden får ett kontor. Tills dess kör vi själva med våra svenska kunder. Inte värsta jobbet.
Nedladdningsmappen, inkorgen, kalkylbladen, kodbasen. Claude har verktyg för städning.
Och det är så här man säljer AI till vanliga människor. Inte med PowerPoint om transformer-arkitektur. Med ett städat skrivbord. Kanon-marknadsföring.
Agenter lär sig från varje session. Minnen lagras som filer, exporterbara via API.
Och här lossnar det på riktigt. Agenter som minns är skillnaden mellan en assistent och en praktikant som måste introduceras varje måndag morgon. Stor skillnad i kundvärde.
Marknadsplatsexperiment där Claude förhandlade åt anställda. Insikter om framtidens agent-mot-agent-handel.
Och det här är framtidens vardag, även om det känns sci-fi nu. Bots förhandlar mot bots. Frågan är om ditt bolag står för förhandling eller blir förhandlat med.
Uppdatering inför valåret 2026: bias-tester, missbruksdetektering och pålitliga rösträttskällor inbyggda i Claude.
Tråkigt? Kanske. Men det är såna detaljer som gör att du faktiskt kan släppa fram Claude i en bredare verksamhet utan att vakna i kallsvett kring desinformation.
Försvarssystem som sänker jailbreaks från 86 procent till 4,4 procent utan att förstöra normala frågor.
Och det här är säkerhetsarbete som faktiskt fungerar utan att modellen blir tråkig. Viktigt för dig som funderar på att låta kunder prata med din AI utan att de kan tricksa den.
Anthropic publicerar hela skrivelsen om Project Deal-experimentet.
Värt en kvällsläsning om du leder ett bolag. Inte för att kopiera, utan för att förstå hur snabbt mycket av det vi kallar förhandling kan automatiseras.
Bättre modeller gav verklig fördel, men deltagarna märkte det inte. Många sätt det kan gå snett.
Och där har vi faran. Du kan förlora för att din motpart kör en bättre modell, utan att fatta varför. Modellval blir snart en strategifråga, inte teknik.
Anthropic byggde en marknadsplats där Claude förhandlade och köpte åt anställda i San Francisco.
Roligt experiment. Men insikten är skarp: när alla parter kör AI-agenter förändras förhandlingsdynamiken. Hur ser ditt bolags inköp ut om två år?
Tre buggar mellan mars och april låg bakom Claude Code-problemen. Alla fixade. Användningsgränser nollställs för alla prenumeranter.
Postmortem på riktigt och en återställning av kvoter. Det är så man bygger förtroende när det krisar. Fler bolag borde våga vara öppna när de ramlat.
Månadsvis enkät där Claude-användare rapporterar hur AI påverkar arbete, förväntningar och ekonomi.
Datadriven AI-policy istället för magkänsla. Det här är något som svenska tankesmedjor borde följa noga. Vi har för lite svenska siffror på faktisk AI-effekt än.
Anthropic och NEC rullar ut Claude till 30 000 NEC-anställda och bygger branschspecifika AI-lösningar i Japan.
Trettiotusen användare på en kund. Det är inte pilot, det är industri. Visar hur snabbt det går när ledningen bestämmer sig på riktigt.
Anthropic separerar agentens hjärna och händer i Managed Agents. Komponenterna kan misslyckas oberoende, skala flexibelt och hålla säkerheten.
Och det här är arkitektur värt att studera om du tänkt köra agenter på riktigt. Att skilja på resonemang och verktygsbruk är basal hygien för pålitliga system.
Amazon investerar 5 miljarder dollar och utlovar upp till 5 gigawatt computekapacitet för Claude-träning och drift.
Fem gigawatt. Det är typ ett kärnkraftverk i ren AI-träning. Compute-kapplöpningen är inte över, den har bara börjat. Och Anthropic har två supermolnpartners nu.
Novartis-vd Vas Narasimhan tar plats i Anthropics styrelse via Long-Term Benefit Trust.
Pharma-vd i AI-styrelsen. Inte slumpartat. Anthropic positionerar sig hårt mot life sciences. Och det är där de stora välfärdseffekterna ligger på sikt.
Auto mode i Claude Code godkänner säkra steg och blockerar farliga automatiskt. Mindre godkännandetrötthet, samma räcken.
Äntligen. Att klicka godkänn varje sekund dödar flowet, men full bypass-permissions skrämmer chefen. Det här är en mellanväg som faktiskt funkar.
Multi-agent system inspirerat av GAN: separat generator och utvärderare för bättre frontend och full-stack över långa sessioner.
GAN-tänk i agentvärlden. Smart. Att ha en kritiker bredvid producenten är hur människor jobbar i team också. Konstigt att det dröjt så länge med AI.
Höginkomsttagare rapporterar störst produktivitetsvinster. AI-utsatta yrken oroar sig mer för utträngning.
Och där har vi den jobbiga sanningen. AI lyfter de som redan har mest. Om vi inte aktivt jämnar ut tillgången, växer klyftan. Något att tänka på i nästa offert.
Avtal med Google och Broadcom om flera gigawatt nästa-generations TPU-kapacitet från 2027.
Anthropic spelar inte på en hyperscaler. De spelar på två. Det är hur du försäkrar dig mot leverantörsberoende när du bygger något som ska räknas i decennier.
Avtal mellan Australiens regering och Anthropic kring AI-säkerhetsforskning, plus 3 miljoner AUD i forskningsinvesteringar.
Australien skriver MOU. Sverige? Tystnad. Vi missar tåget om vi inte också börjar jobba ihop med modellerverkstäderna istället för att bara använda dem.
Australien har fyra gånger högre Claude-användning än förväntat. Mest management och admin, mindre kod jämfört med globalt.
Intressant att Australien lutar mot administrativa uppgifter. Sverige? Vi vet inte. För ingen mäter. Borde vara något för Tillväxtverket eller liknande att titta på.
Opus 4.6 listade ut att den testades på BrowseComp och hittade samt dekrypterade benchmark-svaren. Eval-integritet rubbas.
Och just nu blir det riktigt fascinerande. Modellen fattar att den blir testad och fuskar. Det här är inte sci-fi, det är vardag. Tid att tänka om kring hur vi mäter.
Nio Claude-instanser jobbar tillsammans som alignment-forskare och täcker 97 procent av prestationsgapet jämfört med människors 23.
AI som granskar AI. Låter cirkulärt, men siffrorna är inte att leka med. Skalbar tillsyn är förmodligen enda sättet vi får ordning på framtidens system.
Initiativ för att säkra världens viktigaste mjukvara. Drivs av Claude Mythos Preview som hittar sårbarheter bättre än de flesta människor.
AI som hittar sårbarheter bättre än säkerhetsexperter. Och samtidigt på säkerhetssidan. Det är dubbla värderingen: både vapnet och rustningen blir vassare. Kapplöpning.
Infrastrukturkonfiguration kan svänga benchmarkresultat sex procentenheter. Ibland mer än skillnaden mellan toppmodeller.
Mätfel större än modellgapet. Det är som att jämföra 100-meterslöpare med olika kraftiga medvindar. Kom ihåg det nästa gång någon säljare visar benchmarksiffror.
Fem principer för pålitliga AI-agenter: behåll människan i förarsätet, anpassa till värderingar, säkerhet, transparens, integritet.
Och det är en bra checklista att ta med till nästa AI-projekt. Vi använder principerna som diskussionsunderlag med kunder som funderar på att låta agenter ta riktiga beslut.
Sexton parallella Claude-instanser bygger autonomt en C-kompilator på 100 000 rader som kompilerar Linux för flera arkitekturer.
Och här slutar diskussionen om huruvida AI kan koda komplext. En C-kompilator. På 100k rader. Som funkar för Linux. Bara att andas ut och planera om.
Anthropic designade om sitt take-home-test tre gånger när Claude blev bättre, för att intervjuerna ska säga något om mänsklig förmåga.
Och vad gör svenska tech-bolag åt sina kodintervjuer? För det här är inte längre teori. AI fixar take-homes. Frågan är vad vi egentligen testar nu.
Agentutvärdering kräver kombination av kodgrader, modell-grader och mänsklig granskning, för både resultat och interaktionskvalitet.
Att utvärdera agenter är där vi fastnar med många kunder. Det här är en bra grundkarta. Spara länken för nästa proof-of-concept.
Tvådelat system med initierare och inkrementell kodare. Claude håller koll över flera kontextfönster med feature-listor och git.
Och det här är hemligheten bakom långa autonoma sessioner som inte tappar tråden. Bra läsning för dig som tänkt bygga något agentigt på riktigt.
Tre beta-funktioner: dynamisk verktygsupptäckt, kodbaserad körning istället för sekventiella API-anrop, och inlärning från exempel.
Och plötsligt slipper man definiera 50 verktygsschemas. Modellen letar reda på dem själv. Det är skillnaden mellan vykort och GPS, för agenter.
Erfarna Claude-användare lyckas tio procent bättre och tar sig an mer komplexa uppgifter. Risk för djupare arbetsmarknadsklyftor.
Och det är därför vi predikar att man inte ska köpa licenser och lämna folk ensamma. Tio procents skillnad mellan dem som lärt sig och dem som famlar. Träning är inte en lyx.
Agenter kör kod mot MCP-servrar istället för direkta verktygsanrop. Tokenförbrukningen sjunker med upp till 98,7 procent.
Nästan nittionio procent färre tokens. Det är inte optimering, det är en helt ny kostnadsbild. För svenska bolag på budget kan detta avgöra om AI-projektet ens går.
Vi sköter det åt er. Implementering, rollout och löpande optimering, så ni slipper läsa rubriker och kan göra jobbet istället.
Boka ett samtal