Hur mycket av vetenskapen i den hyllade filmen Project Hail Mary håller egentligen för en granskning? Ny Teknik granskat vad forskarna säger om filmens åtta viktigaste koncept.
Schweiziska Flexbase bygger ett flödesbatteri på 2,1 GWh, störst i världen enligt bolaget. Mastodontbatteriet ska lagra energi från sol- och vindkraft.
Ford ger sig in i ett av elbilsmarknadens mest konkurrensutsatta segment. Är Puma Gen-E en katt bland hermelinerna – eller kan den locka kunder från Kia, Renault och Volvo?
En majoritet av försvarsmyndigheterna i Europa förlitar sig på tekniklösningar från USA. Nu varnar experterna för ”kill switches” som kan inaktivera dessa tjänster.
EU-kommissionens nya app för åldersverifiering online har stött på kritik från flera cybersäkerhetsexperter. Bland annat hävdar konsulten Paul Moore att han kunde hacka appen på under två minuter. Dessutom ska känsliga data lagras oskyddat på användarens telefon, rapporterar Politico.
Andra experter bekräftar problemen och menar att det går att kringgå appens biometriska skydd, vilket gör att exempelvis minderåriga kan använda någon annans verifierade enhet.
EU-kommissionen har försvarat sig med att säkerhetsexperterna tittat på en demo-version som fortfarande utvecklas.
Samtidigt säger kommissionen att de fortfarande anser att appen, som är utvecklad av det svenska digitala identitetsbolaget Scytáles och den tyska telekomkoncernen Deutsche Telekom, är “tekniskt redo”.
Appen är öppen källkod och finns på Github.
Mozilla har nu visat upp Thunderbolt, en AI-klient som fungerar som front-end för lokalt hostade AI-lösningar, rapporterar Ars Technica. Thunderbolt är byggt ovanpå det open source-baserade ramverket Haystack och gör det möjligt för företag att sätta ihop egna AI-system med valfria komponenter.
Användare ska kunna koppla klienten till olika modeller och API:er som Claude, Codex, Openclaw, Deepseek, Open Code och Open AI:s API, samtidigt som hela infrastrukturen körs lokalt.
Thunderbolt har stöd för funktioner som chatt, sök, research och automatisering. Klienten är tillgänglig till Windows, Mac OS, Linux, IOS, Android och webben.
Projektet är samtidigt fortfarande under utveckling och genomgår just nu en säkerhetsgranskning inför en bredare företagslansering.
DeepL, det tyska AI-bolaget främst känt för sina textöversättningar, lanserar nu en ny lösning för röst-till-röst-översättning i realtid. Tjänsten är tänkt för möten, samtal i mobil och webb samt gruppsituationer som utbildningar och arbetsplatser, rapporterar Techcrunch.
Rent tekniskt bygger lösningen i dagsläget på tre steg. Tal görs om till text. Text översätts sedan till rätt språk. Slutligen görs den översatta texten om till nytt tal.
Bolaget släpper även ett API så företag och utvecklare kan bygga egna lösningar, exempelvis för kundtjänst.
Systemet integreras med plattformar som Zoom och Microsoft Teams, där användare kan höra översatt tal direkt eller följa textning i realtid. Det finns också stöd för gruppsamtal via QR-kod och anpassning för branschspecifika ord och namn.
Microsoft köper in sig i enorma datacenterbygget i Narvik som Open AI från början var del av. 30 000 Rubin-processorer från Nvidia har köpts in till anläggningen.
Den som undrar hur en plan för digital suveränitet kan se ut med politiskt stöd i ryggen kan titta på vad som pågår i Frankrike just nu. Redan i januari väcktes stor uppmärksamhet kring beslutet att hela statsapparaten ska fimpa Zoom och Teams för videokonferenslösningen Visio senast 2027.
Visio baseras på open source-mjukvaran Jitsi och ingår i franska statens svit av öppna lösningar, lämpligt nog döpt i La Suite, som även innehåller Teams-alternativet Tchap och lösningar för mejl, dokument och filhantering.
I veckan meddelades det att franska pensionsmyndigheten nu gått över till Visio och Tchap för sina 80 000 tjänstemän. Just det hamnade dock lite i skymundan av nyheten att Dinum, Frankrikes digitaliseringsdepartement, ska byta sina omkring 250 medarbetares Windows-pc till Linux-datorer.
Linux-övergången på Dinum har av vissa tolkats som att hela franska staten kastar ut Windows, men så är inte fallet – åtminstone inte än. För samtidigt har samtliga departement och statliga organ fått krav på sig att ta fram en plan för minskandet av icke-europeiska leverantörer när det gäller arbetsstationer, samarbetsverktyg, antivirusprogram, AI, databaser, virtualisering och nätverksutrustning. Planerna ska levereras senast i höst.
Frankrike har en historia av att vara lite egna när det kommer till teknik – minns bara Minitel – men det är tydligt att landet tar frågan om digital suveränitet på större allvar än många andra, och frågan drivs från högsta politiska ort.
”Staten kan inte längre nöja sig med att konstatera sitt beroende, utan måste ta sig ur det. Vi måste minska vårt beroende av amerikanska verktyg och återta kontrollen över vår digitala framtid. Vi kan inte längre acceptera att våra data, vår infrastruktur och våra strategiska beslut är beroende av lösningar där vi varken har kontroll över reglerna, priserna, utvecklingen eller riskerna”, säger Frankrikes budgetminister David Amiel i ett uttalande.
Kontrasten mot Sverige är tydlig. Här nöjer sig staten just med att konstatera sitt beroende och inte så mycket mer. Civilminister Erik Slottner har i flera intervjuer, senast i Ekots lördagsintervju, sagt att beroendet av amerikanska tjänster är riskabelt men att det inte finns några planer på att minska användningen.
Resultatet är föga förvånande ett ökat beroende. Visst finns det myndigheter som går en annan väg (framför allt Försäkringskassan som både använder och erbjuder samarbetsplattformen Safos baserad på Nextcloud, Jitsi och Element) men någon större rörelse bort från techjättarna är svår att se.
Skatteverket som skapade rabalder för ett år sedan med sitt beslut att köpa in Microsoft 365 är i dag klara med sitt införande, där kör medarbetarna nu både Office, Teams och Copilot.
Ett annat färskt exempel är Stockholms universitet som nu rullar ut Microsoft 365 till samtliga medarbetare, enligt uppgift trots visst internt motstånd.
Och det närmaste vi har Dinum i Sverige, Digg, ska som bekant införlivas i PTS vid årsskiftet. Där kommer medarbetarna välkomnas till den sammanslagna myndighetens nya Microsoft 365-miljö.
Svenska myndigheter är oberoende och får fatta den här typen av beslut på egen hand. Det går absolut att ifrågasätta riskanalysen men så länge den juridiska bedömningen kring amerikanska molntjänster håller är det svårt att säga att de gör något fel. Än mindre så när inte ens regeringen anser att riskerna kräver några särskilda åtgärder.
För utan politisk vilja och genomförandekraft, som i Frankrike, kommer fortfarande ingenting att hända. Regeringens molnpolicy, som utlovats i snart ett år nu, lär inte ändra något. Den, spår jag, kommer koka ner till att så länge inte juridiken säger något annat är amerikanska molntjänster okej.
Det är helt enkelt svårt att se att en regering som skriver under en oklar deklaration om techsamarbete med Trumpadministrationen plötsligt ska placera de amerikanska techjättarna på utelistan.
––
Den här krönikan är hämtad ur CS Veckobrev, ett personligt nyhetsbrev med lästips, länktips och analyser skickat direkt från chefredaktör Marcus Jerrängs skrivbord. Vill du också ha nyhetsbrevet på fredagar? Skriv upp dig för en kostnadsfri prenumeration här.
Europol har dragit i gång Operation Power OFF, en ny kampanj som syftar till att minska antalet ddos-attacker i vår del av världen.
Som en del av kampanjen kommer Europol att skicka ut mejl och varningsbrev till 75 000 personer som misstänks för att ha beställt och betalt för ddos-attacker via diverse tjänster på nätet.
Uppgifterna om beställningarna från beslagtagna databaser, vilket har gjort det möjligt att identifiera personerna i fråga. Totalt har 3 miljoner kriminella konton hittats. Förutom varningsbreven har polismyndigheterna gjort fyra gripanden, tagit ner 53 domäner och fått 25 beslut om husrannsakan utfärdade.
Totalt deltar 21 länder i kampanjen, däribland polismyndigheterna i Sverige, Finland, Danmark och Norge.
Anthropic har lanserat Claude Opus 4.7, en AI-modell som bland annat sägs erbjuda avancerade funktioner för att skapa ny mjukvara och göra ekonomiska analyser.
Dessutom ska den nya versionen vara bättre på att följa instruktioner och ha betydligt bättre minne än föregångarna i Opus-serien.
Det är emellertid värt att notera att Claude Opus 4.7 är mindre kraftfull än Claude Mythos, den nyligen presenterade AI-modellen som ska hjälpa till med att upptäcka sårbarheter.
– Anthropics budskap gör det tydligt att Opus 4.7 är en säkrare modell med funktioner som avsiktligt är nedskalade jämfört med Mythos, säger analytikern Carmi Levy i en kommentar till våra kollegor på Infoworld.
Sålunda får förhandsversionen av Claude Mythos högre poäng än Claude Opus 4.7 i mätverktygen SWE-Bench Pro, SWE-Bench Verified och Humanity’s Last Exam.
Den nya versionen av Opus finns tillgänglig i alla Claude-produkter, samt Amazon Bedrock, Google Clouds Vertex AI, och Microsoft Foundry.
Open AI har släppt en större uppdatering av Codex, det populära AI-verktyget som kan hjälpa till med programmeringen.
Den nya versionen erbjuder en lång rad nya funktioner, däribland möjligheten att använda dina appar i bakgrunden utan att störa dig i det du fokuserar på.
Vidare har Codex utrustats med en inbyggd webbläsare där du kan skriva in dina instruktioner och kommentarer till AI-verktyget.
Open AI har dessutom lanserat 90 nya tillägg som kan användas för att utöka existerande arbetsflöden.
Det långsiktiga målet för Open AI är att förvandla Codex till en så kallad super-app som klarar av att göra nästan vad som helst, rapporterar Ars Technica.
Återigen publicerar Donut Lab en ny video utan oberoende testresultat eller ny avgörande information. Kommentarerna har svängt från att vara uppspelta till frustration och likgiltighet.
Att ställa om till ett mer hållbart samhälle kräver arbetssätt som fungerar i praktiken och människor som får det att hända. Det är de personerna som står i fokus när Skanska nu öppnar nomineringen till Hållbarhetspriset.
I januari gick Gladys West bort, 95 år gammal. Hon bidrog till en uppfinning du använder varje dag – men du har förmodligen aldrig tidigare hört hennes namn.
Telekomjätten Ericssons vinst under första kvartalet kom in under marknadens förväntan. Bolaget flaggar samtidigt för stigande insatskostnader för framför allt halvledare.
Artificiell intelligens förändrar i snabb takt hur säkerhetsteam upptäcker och spårar cyberhot genom att underlätta analysen av enorma mängder säkerhetsdata, avslöja subtila tecken på skadlig aktivitet och identifiera potentiella attacker snabbare än vad traditionella verktyg eller mänskliga analytiker klarar på egen hand.
Analysföretaget Gartner förväntar sig att 50 procent av plattformarna för hotdetektering, utredning och respons (TDIR) – däribland tekniker som EDR, XDR, SIEM och SOAR – kommer att innehålla agentbaserade AI-funktioner år 2028, jämfört med mindre än 10 procent år 2024.
Företaget säger att AI kan hjälpa organisationer att stärka hotdetektering, incidenthantering och begränsning, samtidigt som det hjälper säkerhetsteam att överbrygga den ihållande kompetensbristen och minska beroendet av den knappa tillgången på cybersäkerhetstalanger.
En fråga om skala
En stor del av AI:s inverkan på hotdetektering är kopplad till dess förmåga att bearbeta telemetri i en skala som mänskliga team skulle finna utmanande, kanske omöjlig, att hantera, enligt säkerhetsexperter.
Moderna it-miljöer kan generera miljarder loggar och händelser varje dag över slutpunkter, nätverk, molntjänster och identitetssystem. Maskininlärningsmodeller kan korrelera dessa signaler i nära realtid och identifiera beteendeavvikelser – såsom ovanliga inloggningsmönster, misstänkt lateral rörelse eller försök till dataexfiltrering – som annars skulle kunna förbli dolda i bruset.
Många säkerhetsteam inom företag förväntar sig att sådana funktioner avsevärt ska stärka deras detekteringsförmåga. I en undersökning från 2025 som Anvilogic genomförde i samarbete med SANS Institute uppgav 45 procent av de tillfrågade att deras organisationer redan har integrerat AI i sina arbetsflöden för hotdetektering; 88 procent trodde att AI skulle spela en viktig roll inom detection engineering inom de närmaste tre åren.
Organisationer använder redan AI för att automatisera många av de rutinuppgifter som traditionellt hanteras av Tier 1- och Tier 2-analytiker, säger Martin Sordilla, senior teknik- och säkerhetsarkitekt på Accenture. Mycket av detta arbete handlar om att granska loggar, prioritera varningar, identifiera indikatorer på intrång, korrelera händelser och kontakta systemägare under utredningar. AI kan avsevärt påskynda dessa processer – genom att automatisera uppgifter som prioritering av larm, dokumentation, insamling av bevis och spårning av beviskedjan, tillägger han.
Organisationer ser redan effektivitetsvinster på ungefär 40–50 procent för SOC-uppgifter på lägre nivå, vilket frigör mänskliga analytiker så att de kan fokusera på mer avancerade utredningar och responsaktiviteter, säger Sordilla.
Minska larmtrötthet
Vid larmprioritering minskar AI-agenter larmtröttheten genom att klustra larmmönster och möjliggöra riskbaserad prioritering, säger Dipto Chakravarty, produkt- och teknikchef på Black Duck.
Till exempel kan agenter för naturlig språkbehandling sammanfatta hotlarm i stor skala och korrelera dem med hotinformationsflöden som CVE.org och CISA KEV-katalogen, säger han.
– Det allmänna arbetsflödet för incidenthantering är ett av de områden som gynnas av AI-agenter, där vi ser värdet av automatiserade rutiner för vanliga incidenter, konstaterar han.
AI-agenter spelar också en roll i att berika hotinformationen i stor skala genom att samla in och korrelera hotinformation från otaliga källor och därmed berika dessa varningar med värdefull kontext, såsom CVE-data.
AI-agenter kan i dag effektivt påskynda utvinningen av insikter från organiserade och normaliserade datamängder, genom att låta analytiker ställa frågor på naturligt språk, säger Nicole Bucala, vd på Databee. De eliminerar behovet av specialiserade frågor, analytiska dashboards eller manuell analys som vanligtvis krävs för uppgiften.
I stället för att översvämma analytikerna med tusentals varningar med låg tillförlitlighet kan AI-drivna detekteringsplattformar betygsätta och korrelera varningar, gruppera relaterad aktivitet i mer tillförlitliga incidenter och filtrera bort rutinmässigt eller ofarligt beteende. Resultatet, säger leverantörer och analytiker, är en minskning av varningsutmattning och en förskjutning i analytikernas arbetsflöden bort från manuell prioritering mot djupare utredning och respons.
– AI hjälper SOC:er att undvika ”aktivitetsteater” genom att omvandla rått brus till snabbare beslut med högre tillförlitlighet som stöds av bevis, säger Craig Jones, säkerhetschef på Ontinue.
Utbrändhet hos SOC-team är ett reellt problem, konstaterar Jones. De största drivkrafterna för detta i branschen är larmvolym, fragmentering och tvetydighet, och dessa påfrestningar finns för alla team som arbetar i stor skala. Analytiker, säger han, hamnar ofta i en situation där de tillbringar för stor del av dagen med att hantera stora mängder larm med låg signalstyrka och sedan måste växla mellan flera verktyg bara för att sammanställa grunderna för en utredning.
Begränsa hot tidigare
Den verkliga vinsten med AI är inte att bearbeta fler larm eller stänga fler ärenden; det handlar om att begränsa verkliga hot tidigare, med färre misstag, säger Jones.
– När AI används för att korrelera svaga signaler till sammanhängande incidenter, automatiskt berika utredningar och rekommendera säkra nästa åtgärder inom tydliga ramar, slutar man mäta insats och börjar visa resultat, förklarar han.
Säkerhetsexperter förväntar sig att AI kommer att förändra de färdigheter som behövs i säkerhetsteam. I stället för att eliminera jobb kommer det att hjälpa säkerhetsteam att automatisera rutinuppgifter och flytta roller mot teknik och systemdesign, säger Accentures Sordilla. Den traditionella rollen som SOC-analytiker – som i hög grad fokuserar på manuell logggranskning – kommer sannolikt att utvecklas till säkerhetsingenjörsroller med fokus på att bygga motståndskraftiga system, automatiseringspipelines och AI-assisterade försvar.
Tidiga data visar att organisationer som har implementerat AI för detekteringsteknik ser vissa mätbara vinster.
I en Google-studie av 3 466 ledande befattningshavare rapporterade nästan sju av tio (67 procent) tidiga användare av agentbaserad AI att de såg en positiv inverkan på deras säkerhetsläge. Av denna grupp uppgav 85 procent att AI hade förbättrat deras förmåga att identifiera hot. Tidiga användare av AI, noterade Google, ser mätbara fördelar inte bara i termer av effektivitet, utan också i termer av verkningsgrad.
Samtidigt varnar experter för att AI-driven detektering inte är någon mirakelkur. Angripare experimenterar själva alltmer med AI – de använder den för att skapa mer övertygande phishing-kampanjer, automatisera rekognosering eller modifiera skadlig kod för att undvika signaturbaserade försvar. Denna dynamik tvingar försvararna att behandla AI inte bara som ytterligare ett säkerhetsverktyg, utan som en del av en bredare utveckling inom säkerhetsverksamheten där mänsklig expertis, hotinformation och maskininlärning måste samverka.
– Cyberattacker har industrialiserats i maskinhastighet, säger Ram Varadarajan, vd på Acalvio.
– Vi måste svara på samma sätt.
Det innebär att implementera defensiv AI som kan hantera tekniska uppgifter i stor skala, såsom att sortera phishing-mejl, analysera omfattande nätverksloggar för beteendeavvikelser, använda AI-medveten cyberdeception och självständigt sätta komprometterade enheter i karantän för att förhindra lateral rörelse, säger han.
– När det gäller en AI-angripare med maskinhastighet kommer ingen människa någonsin att kunna hänga med, och dessa komplexa AI-attacker kommer att genomföras i stor skala, säger han.
Implementera AI på rätt sätt
Nyckeln till att få ut mesta möjliga värde av AI vid hotdetektering är att se till att människor är involverade.
Alla hotupptäckter eller åtgärder som vidtas utifrån dessa insikter, särskilt sådana som medför betydande konsekvenser för verksamheten, bör åtminstone förbli under mänsklig övervakning, säger Databees Bucala.
– Människan i loopen är mantrat. Det finns stora affärsrisker som kan uppstå genom full automatisering om inte felmarginalen i maskinbaserade beslut är nära noll.
Även om AI ser lovande ut när det gäller hotdetektering behöver det fortfarande finslipas. Den bästa metoden för organisationer är att etablera en process som inkluderar mänsklig validering, och människor som har rätt uppmärksamhet på detaljer och sammanhang för att stickprovskontrollera AI:s sammanfattande resultat och beslut, påpekar Bucala.
AI, tillägger Accentures Sordilla, är inte en ersättning för grundläggande säkerhetsrutiner. Om en organisation redan har svaga säkerhetsrutiner kan AI helt enkelt förvärra befintliga problem. Företag bör därför först se till att de har en stark styrning, tydliga säkerhetsstandarder och mogna processer – såsom de som beskrivs i ramverk från NIST och Internationella standardiseringsorganisationen – innan de integrerar AI i sina säkerhetsprogram.
– AI är en kraftmultiplikator, säger Sordilla.
– Om ditt företag är på väg i fel riktning går det ännu snabbare åt skogen.