Warning: Missing argument 2 for wpdb::prepare(), called in /home/stromber/public_html/kryptoblog/wp-content/plugins/wp-super-edit/wp-super-edit.core.class.php on line 109 and defined in /home/stromber/public_html/kryptoblog/wp-includes/wp-db.php on line 1291
October » 2006 » Kryptoblog

Archive for October, 2006

Security Monkey – En podcast till om IT-säkerhet

October 31st, 2006

Jag har tidigare bloggat om The Silverbullet, Gary McGraws podcast om IT-säkerhet. Nu har jag hittat en intressant podcast om IT-säkerhet till.

Security Monkey är en podcast om säkerhetsanalys och forensisk analys. Det finns i dag 15 avsnitt som bland annat tar upp avlyssning av VoIP-trafik, analys av DDoS-attacker och mycket mer. Är du intresserad av utredning av IT-brott är detta nog en podcast värd att prenumerera på och ha i lurarna på bussen.

Hur bra fungerar antivirus-programmen egentligen

October 31st, 2006

En artikel på bloggen Security Absurdity tar upp att dagens antivirusprogram inte hänger med i utvecklingen, och att vi därför är mindre skyddade än vi tror.

Utgångspunkten för artikeln är den analys av AV-program som Eugene Kaspersky skrev i slutet av förra året. I den visade Kaspersky att även de bästa AV-programmen bara fångar upp 90% av alla virus, och att trenden är att AV-programmen ger sämre och sämre skydd.

Tittar man på elak kod mer generellt finns det ny statistik från Malware-test.com som inte är en rolig läsning:

‧Trend Micro Anti-Spyware: 71.17%
‧Sunbelt CounterSpy: 68.47%
‧Webroot Spy Sweeper: 65.77%
‧ewido anti-spyware: 62.16%
‧McAfee antispyware: 62.16%
‧PC Tools Spyware Doctor: 59.46%
‧Norton Internet Security: 54.05%
‧Computer Associate Anti-Spyware: 49.55%
‧BitDefender Internet Security: 48.65%
‧Microsoft Windows Defender: 44.14%
‧F-Secure Internet Security: 44.14%
‧a-squared Anti-Malware: 43.24%
‧SpywareTerminator: 41.44%
‧ZeroSpyware: 41.44%
‧Lavasoft Ad-Aware: 39.64%
‧Panda Platinum Internet Security: 38.74%
‧ZoneAlarm Anti-spyware: 38.74%
‧Spybot S&D: 38.74%
‧SUPERAntispyware: 36.94%
‧Arovax AntiSpyware: 35.14%
‧Ashampoo AntiSpyWare: 33.33%
‧Kaspersky Internet Security: 32.43%
‧NOD32: 30.63%
‧Agnitum Outpost Firewall Pro: 22.52%
‧Comodo AntiVirus: 18.02%
‧Aluria Anti-Spyware: 9.00%

(Notera att Kasperskys produkter bara fångar en tredjedel av all elak kod.)

Vad beror nu detta på? Jag tror att det finns flera orsaker. Ett skäl är den snabbt ökade automatiseringsgraden vid virusframtagning och den därför snabbt ökande mängden nya virus. Ett annat skäl är att dom som tar fram elak kod i dag testar sina produkter mot AV-programmen innan dom släpps ut – ett slags kvalitetskontroll innan produktsläpp.

Men i grunden tror jag att AV-programmen arbetar på fel sätt. Signaturbaserad AV-detektering verkar inte längre fungera då AV-företagen inte hänger med att ta fram signaturer för alla varianter.

Jag var och talade om kryptotrender på konferensen SUSEC 2006 i Umeå för en dryg vecka sedan. Där var även Joakim von Braun (JvB) och talade. Han hade en del skrämmande statistik med sig, bland annat:

  • 70%-80% av alla användare som använder AV-program blir ändå smittade varje år.

  • Masken SpyBot som exempel finns i 16000 olika versioner.

JvB berättade att han för några år sedan uppdaterade sitt AV-program en gång varannan vecka, men att han i dag gör det var fjärde timme, och ansåg att det egentligen var för sällan. Dock ansåg inte JvB att AV-programmen i grunden arbetar på fel sätt, utan att dom används på fel sätt.

Jag försökte argumentera att har vi gått från ett behov av uppdatering på ett par veckor till under fyra timmar på ett par år, borde vi inom bara några år kunna hamna på en nödvändig uppdateringsfrekvens (för att bibehålla säkerheten) på minut, ja till och med sekundnivå. Är det då rimligt att fortsätta på väsentligen samma sätt? Jag fick uppfattningen att JvB ansåg att det var rimligt och att han inte såg att den snabbt ökande uppdateringsfrekvensen är ett problem, eller ens ett tecken på ett problem. Vidare höll han inte med om att det ökade behovet av scanning av filer och inkommande data äter upp allt mer resurser, vilket leder till problem för användaren.

Vad tror du? Hur skall vi möta utvecklingen av elak kod? Är signaturbaserad detektering den rätta vägen även för framtiden? Det är hög tid att börja diskutera detta – skurkarna väntar iaf inte.

(Är det någon som har länkar till relevant AV-forskning skulle jag uppskatta att få en kopia – posta i kommentarerna.)

Pareto-säker – försök till mått på säkerhet

October 30th, 2006

Financial Cryptography dök det för ett tag sedan upp en intressant artikel om försök att hitta ett slags mått på säkerhet i ett tekniskt system.

Utgångspunkten för artikeln är att försöka applicera den ekonomiska termen Paretoeffektivitet på säkerhet för att skapa ett motsvarande mått artikeln kallar Paretosäkerhet. Artikeln sammanfattar konceptet bakom Paretosäkerhet och Paretokompletta system på följande sätt:

A Pareto-secure improvement is made to a security system when a substituted component results firstly in an improvement in security, and secondly with no cost to security elsewhere.

We say that a component is Pareto-secure if within the confines of its security system, there is no Pareto improvement to security in changing it for another component, and it is secure against known threats. Further, we say that a component is Pareto-complete if within any reasonable security model, there is no Pareto improvement.


Notera att man tittar på systemets komponenter och att den totala systemsäkerheten ges av summan av komponenternas säkerhet.

Jag gillar tanken på att försöka kvantifiera och mäta säkerhet. Ett av dom stora problemen med säkerhet är just att det inte är en funktion i sig, och därmed är svår att visa. Vidare behövs det definitivt kopplingar mellan säkerhet och eknomi för att företag skall kunna räkna på kostnader och därmed kunna fatta rationella beslut om sin säkerhet.

Samtidigt blir det med Paretosäkerhet en fråga om att avgöra huruvida en alternativ komponent är säkrare eller ej. Och denna grundläggande svårighet ger inte artikeln speciellt mycket hjälp med att lösa.

Men som sagt, ett bra och intressant försök att greppa, mäta och kvantifiera det svårgripbara som är IT-säkerhet. Påminner inte så lite om det i mitt tycke spännande projektet FlexSoC på Chalmers där man arbetar med att kvantifiera flexibilitet i tekniska system. (Flexibilitet är jätteviktigt, men vilken flexibilitet skall du ha, hur mycket flexibilitet behöver du och vad kostar flexibiliteten är några av frågorna som FlexSoC brottas med.)

GP gör ett nytt försök – Nordea ser över säkerheten

October 25th, 2006

Jag skrev i går om GPs artikel GP reder ut begreppen, i vilken någon (gissningsvis Nordea) fick svara på några snälla frågor om säkerheten i Nordeas Internetbank. Jag skickade även ett mail till GPs redaktion och författaren till GPs artikel, journalisten Christofer Psilander där jag påpekade att:

  1. Bara för att Nordea hävdar att deras säkerhetslösning är lika bra som andra bankers, finns det faktiska skillnader och Nordeas lösning är inte lika bra.

  2. Bara för att Nordea upprepat hävdar att det är för att dom är störst på marknaden som just deras kunder är måltavla för attacker, så är det inte hela sanningen, utan Phisingattackerna riktas även mot Nordea för att dom har en sämre säkerhetslösning.

  3. Det finns ett antal duktiga personer som kan berätta mer om de olika bankernas säkerhetslösning, och kan förklara varför Nordeas lösning är sämre. Exempelvis Per Hellqvist på Symantec.

I dag har GP publicerat en ny artikel av Psilander som bland annat innehåller en intervju med Per Hellqvist som förklarar:

Det finns skillnader i säkerheten, säger han. Det går att lura bankkunder med elektroniska dosor också, men det är svårare. Framför allt måste skojarna vara snabba. Men har man kommit över en inloggning till ett Nordeakonto kan man använda den långt senare.

De elektroniska koderna gäller ofta i korta perioder. Från att man fått koden från dosan gäller den i praktiken i några minuter. Nordeas skrapkoder, däremot, gäller mycket längre. Om man inte använder en enskild kod och heller inte byter ut kortet med koder så kan en kod i princip gälla i åratal.


Psilander har därefter konfronterat Nordea med informationen från Hellqvist. Nordea visar sig då vända 180 grader och säger nu:
På den punkten har vi delvis sämre säkerhet än andra banker, säger Ingemar Borelius, chef för Nordeas nätbank.

(Notera att det inte är Nordeas Boo Ehlin som svarat på frågan.) Nordea säger även att dom skall förändra sin säkerhetslösning för att öka säkerheten, dock utan att säga något om hur det skall ske.

Psilander och GP har den här gången gjort ett riktigt journalistiskt arbete, något mitt mail antagligen inte hade något med att göra. Bra förklaring även av Hellqvist och speciellt bra är det att Nordea nu tar sina kunders säkerhet på allvar. Det kanske blir sol i dag trots allt.

Altera C2H – Bygg din egen kryptoaccelerator

October 24th, 2006

I förra veckan var jag på en workshop för att lära mig använda verktyget C2H från Altera. C2H skall utläsas C to Hardware, alltså ett verktyg för att (automagiskt) konvertera C-kod till hårdvara. Hårdvara i form av digitala logikblock, register, minnen och ledningar.

Att generera hårdvara direkt från en programvarubeskrivning, eller annan högnivåbeskrivning är inte helt nytt – det har varit en kommande teknik i flera decenier – något som i stort sett alltid varit nästan här. När jag gjorde mitt examensarbete på Ericsson 1997 var det faktiskt precis det jag arbetade med. (J. Strömbergson, P. Wikman. Sömlös konstruktion av rekonfigurerbar hårdvara. Luleå tekniska universitet. LTU 1997:338.)

I det läget handlade det om att utifrån en beteendemodell skapad i ett signalbehandlingsverktyg automatiskt generera hårdvaruacceleratorer. När systemets huvudprocessor (En DSP från Texas Instruments) anropade motsvarande C-funktion, laddades motsvarande accelerator in i en till processorn kopplad FPGA (en Xilinx 4xxx – det var länge sedan) varvid funktionen utfördes med hög prestanda.

Detta fungerade faktiskt hyggligt, men själva högnivåsyntesen var en väldigt omständig och allt annat än automatisk process där verktygen krävde mycket stöd och handkraft för att generera något vettigt. Verktyget vi då använde var från det svenska företaget Synthesia, ett företag som sedemera köptes upp av Cadence. Deras verktyg integrerades med Cadence systemkonstruktionsverktyg SPW, och lades därefter ned.

Jag har sedan dess periodiskt tittat på verktyg och metoder för högnivåsyntes och hårdvarukonstruktion från en C-beskrivning. Jag tycker att man kan ana att det skett en klar förändring. Till det bättre. Jag skulle vilja hävda att det är två saker som gör att vi nu ser praktiskt användbar HW-syntes från C-kod:

  1. Verktygen har mognat och är nu industrianpassade. När jag gjorde mitt exjobb och då läste mycket av litteraturen på området var det uppenbart att mycket tid ägnades åt att skapa algoritmer för att optimera schemaläggning av operationer, göra resursdelningar och optimera den genererade hårdvaran. Detta gjorde verktygen komplexa och sega. Alteras C2H-verktyg gör inga försök till resursdelning alls, utan då får du som konstruktör skriva din kod så att det sker. Vidare är schemaläggningen uppenbarligen inte den mest fantastiska. Och det är ok. Jag tror att Altera (och andra leverantörer) insett att det är bättre med en fungerande och hygglig konstruktion som möter tidplanen, än en optimerad lösning som blir försenad.

  2. Moores lag. Vi får hela tiden mer och mer resurser tillgängliga. Bortsett från extremt kostnadskänsliga applikationer (mobiltelefoner för konsumenter), alternativt extrem prestanda (processorer för gamers) är det få som kan utnyttja all logik, alla ledningar och minnen som i dag får plats på en krets. Att då göra slut på 30% mer resurser, men kapa utvecklingstiden ordentligt börjar bli en acceptabel kompromiss.

Det är alltså klart bättre med ett halvkorkat, men snabbt och användarvänligt verktyg än ett avancerat verktyg som genererar nästan lika bra hårdvara som de bästa konstruktörer kan få fram för hand, men som kräver nästan lika mycket resurser och tid som en handkodad konstruktion.

(Altera, som lever på att sälja FPGA-kretsar ser naturligtvis att folk köper fler och större FPGAer, tycker säkerligen att (1) och (2) bara är positivt).

Altera har gett sig själva några genvägar som förenklar C2H. Dom utgår helt enkelt ifrån att din konstruktion innehåller (minst) en processor, mer specifikt deras mjuka processor Nios II kopplad till kommunikationsstruktur Avalon. Programvaran som skall accelereras förväntas från början köra på processorn. Den accelerator som sedan genereras kopplas in som en periferienhet i Avalon och Altera kan då generera headerfiler och programstöd som behövs för att över Avalon använda periferienheten utan att applikationskoden påverkas. Så här ser alltså det tänkta systemet ut:

Att programkoden i sig inte behöver ändras för att anropa acceleratorn är en viktig poäng och visar att det är programkoden som är i fokus. C2H är över huvud taget i första hand riktad mot programvaruutvecklare, inte mot hårdvaruutvecklare. Detta ser man inte minst av det faktum att C2H körs inifrån Alteras IDE (baserad på Eclipse) för Nios II. Det du som konstruktör behöver göra för att accelerera din funktion är att markera funktionsnamnet, högerklicka för att få upp menyn och sedan välja Accelerate with the Nios II C2H Compiler:

Vad har då detta med IT-säkerhet att göra? Jo, jag testade naturligtvis att köra igenom en kryptofunktion för att se om det verkligen var så enkelt som Altera hävdade, och om det blev någon prestandaförbättring. Funktionen jag testade att generera i hårdvara var generatorfunktionen i strömkryptot RC4:


    u_8 rc4_genkey(u_8* ip, u_8* jp)
    {

    u_8 si, sj, sk;

    // Update the pointers and read state values
    // using the pointers. The i pointer scans the
    // state memory and the j pointer jumps
    // randomly.
    ip = (ip + 1) % 256;
    si = state_mem[ip];
    jp = (jp + si) % 256;

    // Read out the new key value using the state
    // values as index.
    sk = state_mem[((si + sj) % 256)];

    // Update the state_mem by swapping the
    // ip and jp values.
    state_mem[ip] = sj;
    state_mem[jp] = ip;

    // Finally return the new key value.
    return sk;
    }


    (Nej, just den här koden är inte kompilerad, utan skriven för att visa funktionen i RC4.)

    Jag kan direkt säga att det här antagligen inte var den bästa koden att accelerera. En bättre kod hade antagligen varit en del av AES, SHA-1 eller annan kod med mycket databehandling och många iterationer. Men algoritmen för RC4 kan jag utantill och även en algoritm jag implementerat flera gånger, såväl i program som i digital hårdvara.

    Men den accelerator som genererades var mer än dubbelt så snabb som den rena programvaruimplementationen. Latenstiden, dvs tiden i antal klockcykler för att generera nästa rc4-nyckel var 12 cykler. Beroende på vilken typ av minne man använder för tillståndsminnet (state_mem) har den optimala implementationen, eller mer korrekt den bästa implementationen jag byggt, en latenstid på tre cykler. Används ett mer normalt minnesmakro för sitt tillståndsminne hamnar den handbyggda lösningen på fyra till sex cykler.

    Som mest ligger den genererade implementationen alltså en faktor fyra, men mer troligt en faktor två till tre efter den handbyggda implementationen. Och då har jag inte hjälpt generatorn på något sätt. Vad som hände när jag provkörde var att generatorn placerade såväl tillståndsminnet som pekarna i och j i det externa minnet. Hade jag sett till att dom var lokala för funktionen hade dom hamat i för acceleratorn register och minnen och då hade troligen fyra till sex cykler försvunnit från latenstiden.

    Storleksmässigt var den genererade konstruktionen större än den hade behövt vara. Bland annat genererades tre stycken adderare, när det skulle räcka med en adderare, men som jag skrev innan så gör väsentligen inte C2H några försök att hitta resurser att dela. Och skall man vara ärlig så är tre stycken åttabitars adderare inte speciellt mycket logik, speciellt inte i en FPGA där adderare implementeras väldigt effektivt.

    Implementationstiden låg på ungefär 15 minuter, och då räknar jag inte in tiden för att skriva C-koden och debugga den från syntaxfel, vilket tog ungefär lika lång tid. En någorlunda optimerad handbyggd implementation i Verilog eller SystemVerilog fixar inte jag på mycket under en dag, speciellt inte om man dessutom skall bygga testbänkar, skriva testfall och debugga.

    Sammanfattningsvis fick jag alltså fram en konstruktion som var fyra gånger långsammare och ungefär tre gånger större än en manuell konstruktion. Men potentiellt borde jag med några enkla ändringar i min C-kod kunnat komma fram till en konstruktion som varit ungefär två gånger långsammare än den manuella konstruktionen. Och totala utvecklingstiden hade troligen stannat på en timme istäkket för (minst) en dag. Inte illa.

    Verifiering är en viktig del i all utveckling av hårdvara. I fallet med C2H får man lita på att verktyget genererar rätt. Å andra sidan är det enkelt att samköra programvaruversionen och hårdvaruversionen av funktionen och jämföra resultatet. Använder du din funktion på ett sätt som täcker in hela funktionsymden och får samma resultat från båda versionerna bör du kunna lita på att C2H gjort rätt.

    En viktig poäng med verktyg som C2H är att du kan vänta med att bestämma vad du skall accelerera i hårdvara. Metodiken bli nu att se till att den önskade funktionaliteten fungerar korrekt. Sedan kör du profilering och får reda på var du faktiskt har prestandaproblem. Du genererar då acceleratorer för dessa och kör om profileringen. Eftersom manuell utveckling tar lång tid sker beslut om vad som skall accelereras långt innan det går att göra profilering. Och som många andra har upptäckt är det svårt att i förväg gissa var flaskhalsarna i ett system verkligen finns. Vid manuell utveckling riskerar du alltså att accelerera fel funktion.

    C2H är nu inte ensam på marknaden, utan det finns flera andra produkter för hårdvarusyntes av C-kod, exempelvis:

    1. Celoxica. Använder en variant på C kallad Handel-C som har språkmässigt stöd för att beskriva parallella beteenden och synkroniseringar. Verkar fungera bra, men ställer större krav på dig som konstruktör.

    2. Mentor Graphics Catapult-C. Att döma av pressreleaser har både Ericsson och Nokia använt detta verktyg för att bygga hårdvara som sitter i deras mobilplattformar. Detta tyder på att Catapult-C kan leverera bra resultat (I en ASIC för mobiltelefoner finns det inte kostnadsmässiga möjligheter att slösa med resurser). Dock har jag förstått att det krävs ordentliga styrfiler, ibland lika stora som C-koden för att få önskat resultat från Catapult-C.

    3. Mitrionics. Lundaföretaget har utvecklat egna verktyg för att generera hårdvara till sina FPGA-baserade acceleratorkort. Konceptet påminner mycket om C2H, men riktar sig mot applikationsacceleration av tekniska beräkningar som körs på en server eller till och med en superdator.

    Jag tror att C2H är rätt väg att gå. Tack vare de faktorer jag tidigare räknat upp tror jag att utveckling av hårdvarublock för FPGA och ASIC kommer att automatiseras. Detta, tillsammans med ökad outsourcing av rena konstruktionsjobb exempelvis till Kina eller Indien, innebär att marknaden för denna typ av jobb kommer att marginaliseras. Min bedömning är att det nog inte kommer att finnas många jobb för blockkonstruktion för ASIC och FPGA i Sverige om tio år.

    Ja det kommer alltid att finnas applikationer som av olika skäl kommer att kräva (och har råd med) manuell konstruktion, men det kommer att vara en krympande marknad. Ja, till viss del tycker jag att detta är en tråkig utveckling – Jag jobbar med FPGA- och ASIC-kontruktion och tycker fortfarande att det är spännande att arbeta fram en bra arkitektur och snygg implementationer som möter applikationskraven.

    Men det går inte att vare sig blunda för eller motarbeta utvecklingen. Istället måste vi som konstruktörer inse att det är dags att lyfta oss i håret. Vi skall inte bara trycka på knappen till C2H, men även skriva koden och den kravspecifikation som är indata till hur koden ser ut och knapptryckandet utförs.

    Jag hoppas få möjlighet att testa C2H ordentligt senare i höst, och då köra igenom flera olika kryptografiska primitiver. Det vore intressant att se hur bra det går att få utan att lägga ett stort antal timmar på att hjälpa verktyget.

    Är du nyfiken på C2H rekommenderar jag att du tittar närmare på Alteras webbsida för C2H.

GP rör till begreppen

October 24th, 2006

Göteborgs-Posten (GP), en tidning med en lång tradition av god journalistik har skrivit några artiklar om de senaste Phisingförsöken som drabbat Nordeas kunder. Nu har man även tagit ett steg längre och försöker förklara attackerna, eller som dom själva kallar det: GP reder ut begreppen. Det gick inte så bra för dom.

Christofer Psilanders artikel är upplagd som ett antal frågor med svar, dock framgår det inte vem som svarar på frågorna, att döma av svaren är min gissning att det är Boo Ehlin på Nordea som är den som svarat på frågorna. En av frågorna med svar i artikeln är:

Varför är det bara Nordea som drabbas?
Nordea är den bank som har flest kunder. Bedragarna skickar falska e-brev till massor av slumpmässigt utvalda människor, och genom att välja den största banken hittar man flest kunder som man kan lura.

Detta är något som Nordeas Boo Ehlin upprepat som ett mantra. Tyvärr blir det inte mer sant för att Boo säger det hela tiden. Tittar man på statistik som exempelvis Symantec publicerat är det tydligt att:

  1. Marknadsandel eller kundantal i absloluta termer inte är det som avgör hur frekvent en applikation eller en tjänst är utsatt för attacker. Det finns många andra faktorer, där inte minst möjligheten att genomföra en attack är väldigt viktig.

  2. Attacker, speciellt mot finansiella tjänster som banker har blivit allt mer riktade. Det är inte så att attackerna i dag skickas till alla generellt, utan är optimerade för att nå exempelvis Nordeas kunder.

Artikel fortsätter med föjande fråga-svar:

Är Nordea osäkrare än andra banker?
Nej. Enligt Svenska bankföreningen har alla svenska banker samma nivå på säkerheten. Ingen har heller lyckats hacka sig in i banken, det har skett genom att bedragarna lurat av kunderna deras lösenord.

Detta är alltså rent krasst falskt. Nordea har valt en lösning som gör det möjligt att genom att samla in ID, lösenord och dom närmast följande skaplottnumren överföra pengar från kunders konto. Ingen tidskoppling (så länge som den legitima användaren inte försöker gå in på Internetbanken), ingen challenge-response. Detta är en klart mer osäker lösning än den som exempelvis Swedbank och SEB använder sig av. Inte för att dom heller är fullständigt säkra, men det är mycket, mycket bättre.)

Det GP (eller rättare sagt Nordea) har rätt i är det här:

Eftersom bedragarna lyckats lura till sig några miljoner kronor av Nordbankskunder finns det heller ingen anledning för bedragarna att byta bank. De fiskar helt enkelt där de redan fått napp.

Men är det ett skäl för Nordea att hålla fast vid sitt osäkra system, och inte åtgärda problemet?

Det är tråkigt att Nordea framhärdar med sina dumheter, till nackel för sina kunder. Än värre är det när GP tar dessa dumheter för sanning, presenterar dom som fakta och lånar ut sin trovärdighet. Ni kan bättre än så här GP!

Varningssymboler för framtiden

October 24th, 2006

Anders Sandberg, forskare och bloggare från KTH har hittat på nya varningssymboler för framtida saker att se upp för, vara försiktig med. Artikeln Warning Signs for Tomorrow är värd att läsa för att få sammanhanget, men här kommer Anders bilder i ett kollage:

Några av varningsskyltarna (stark AI, gruppintellekt) ställer krav på att man köper tankarna om teknologisk singularitet modell Vinge, Stross och Kurzweil . För några av dom andra (strangelets, spacetime) är det rejält ny fysik som behöver ha hittats på.

Men diamantytor och nanopartiklar finns redan i dag (fast då mest i forskningslabb), och har så smått börjat bli problem, vilket antagligen kommer att kräva varningsskyltar för att påminna oss om att vara försiktiga. Om inte annat kommer det antagligen att behövas när dom kommer ut i produkter och miljöer där vi vanliga konsumenter vistas.

Anders symbol för ständigt närvarande övervakning (och DÄR kom kopplingen till IT-säkerhet) är tyvärr något som nästan redan behövs i dag.

Att det finns saker som förut verkligen hörde till fiktionen (utopi såväl som dystopi), men som blivit en del av vår teknologiska vardag inser man om man tittar på den här symbolen:

Mer jobb för Nordeas Fraudkampavdelning

October 23rd, 2006

Nu börjar det bli pinsamt. Nordeas kunder har ännu en gång blivit utsatta för ett Phisingförsök. Det här försöket skiljer sig från de senaste försöken genom att vara utformad som en tävling:

Vi gratulerar alla våra kunder på Bankens jubileum!

Det glädjer oss att meddela att därvid får Ni en chans att bli vinnare i vårt lotteri.
Detta är en unik möjlighet att vinna en bil, en bärbar dator samt övriga minst hundratals priser. Var med i lotteriet nu!

För att delta behöver ni att fylla i en registreringsform. Själva registreringsprocessen ska inte ta mycket tid.

Tack
Lotteriets organisatörer.
Nordea Bank


Komplett med en länk som ser ut att gå till Nordea, men som leder någon helt annanstans. Enligt Boo Ehlin på Nordea är det fortfarande så att Nordeas kunder är måltavla för att attacker för att Nordea är en så stor bank. Att Nordea har valt en säkerhetslösning som gör att bedragaren kan hämta in vital information och sedan vid ett annat tillfälle starta en session med Internetbanken (som iofs måste ske innan kunden gör ett eget försök att använda Internetbanken) har tydligen inget med saken att göra.

Nej Swedbank, SEB m.fl. har inte perfekta lösningar, utan är mer eller mindre känsliga för Man in The Middle-attacker (MITM). Men den typen av attacker är mycket svårare att utföra. Det är därför Nordeas kunder är måltavla.

Optag – EU-projekt för övervakning av flygpassagerare

October 22nd, 2006

Jag sprang för några dagar sedan på information om ett EU-projekt kallat Optag.

Optag är namnet på ett konsortium finansierat av EU som syftar till att ta fram ny teknologi och nytt system för att öka övervakningen av personer på flygplatser. Projektets officiella målsättning är att:

Increase the efficiency, safety and security of the airports by emerging tracking and imaging technologies.

Tanken med Optag är att använda två olika tekniker:

  1. Aktiv RFID-enheter som sätts fast på alla passagerare som checkar in. Enheten gör det möjligt att på en meter när veta var varje passagerare befinner sig varje sekund.

  2. En ny typ av kamerateknik som gör det möjligt att kontinuerligt övervaka hela flygplatsen.

Kombineras 1 och 2 är tanken att man sedan skall kunna veta exakt var varje passagerare befinner sig, vem som äger ett givet bagage etc. På detta vis skall man kunna leta reda på passagerare som är sena till sin gate, glömmer sitt bagage (eller gör något fuffens.) Här finns det tydligen stora vinster att göra för flygbolag och flygplatser.

I en artikel på BBC beskrivs Optag, och där tar man upp ett problem som ännu inte är helt löst – hur man skall få passagerarna att inte tappa/göra sig av med RFID-brickan. Artikeln berättar dock att man kommit så långt att fältprov nu skall ske på den Ungerska flygplatsen Debrechen. Det som troligen är prototypen för RFID-brickan ser i alla fall ut så här. Av döma av storleken är det inget man enkelt glömmer att man har fått på sig:

Det finns även en större artikel på RFID-Journal som har mer information om Optag. Den artikeln berättar bland annat om lite olika tankar på hur man skall få passagerarna att bära brickan:

It is unclear whether tags will be attached to tickets or given to passengers to clip on like a credit-card-sized ID badge. Tags could even be worn around passengers’ necks, or built into wristbands, though Brennan thinks passengers might find these types more intrusive. If an airport chose a system based on disposable tags, the tags would include a small and cheap button-cell battery. If tags were to be reusable, they would include rechargeable batteries.

Runt halsen, ungefär så här kanske?

Förutom taggen skall det alltså även finnas en ny typ av kamerasystem som gör det möjligt att även se vad (dom via RFID-taggen identifierade) passagerarna gör. så här ser prototypen ut:

Jag känner att jag har svårt att hålla mig seriös. Maskinen ovan med alla linser, aktiva RFID-brickor som sätts fast på passagerarna känns helt overkligt. Wedlock med Rutger Hauer, filmen bilden ovan är hämad ifrån, känns tyvärr inte alls så fiktiv och galen som jag skulle vilja när jag läser om Optag. Dystopin ser nästan ut att vara här.

Det är för mig inte helt klart hur både ökad pålitlighet (safety) och säkerhet uppnås med Optag. Jag kan köpa att man genom den drastiskt ökade övervakningen om inte annat får passagerarna att bete sig som snälla får. Men vilken pålitlighet är det som förbättras?

Men det jag tycker är mest tråkigt och skrämmande med Optag är att detta är ännu en teknologi som förs fram med argumentet att hindra terrorism, utan att någon som helst analys av hur teknologin förhindrar terrorism, och vilka konsekvenser det får. (Inte minst vad som kan hända för passagerarna när systemet fallerar.) Begreppet hindrar terrorism har verkligen blivit en floskel, en marknadsföringsterm som måste finnas med på presentationerna när man äskar pengar till sitt projekt.

Och en sak till: Jag är beredd att sätta pengar på att inte alla passagerare kommer att få glädjen av att uppleva Optag på nära håll. Dom man litar på, eller dom som känner rätt personer i rätt kretsar kommer naturligvis att slippa. Om du funderar på om en säkerhetsåtgärd är kränkande skall du kolla om det finns några som undantas från åtgärden. Säkerhet har helt enkelt blivit en klassfråga – något som inte främjar säkerheten. Bruce Schneier har skrivit något mycket klokt om säkerhet som klassfråga jag starkt rekommenderar att du läser.

SASC 2007

October 21st, 2006

Europeiska ECRYPT anonordnar workshoppen SASC2007 - State of the Art Stream Ciphers. Workshoppen går av stapeln i Bochum i Tyskland 2007-01-31 – 2007-02-01. Syftet med workshoppen är att:

gather researchers working in the area of stream cipher analysis and design. The workshop is an organisation of ECRYPT, the European Network of Excellence in Cryptography. The workshop is an activity of ECRYPT’s STVL - Symmetric Techniques Virtual Lab. In particular, the workshop is focused on researchers participating in ECRYPT’s eSTREAM project. The main goal of this workshop is to give participants the opportunity to give talks, present their research and discuss various aspects of the eSTREAM project.

Vill du få reda på det senaste om strömkryptutveckllingen inom eSTREAM kan det alltså vara värt att åka ett par dagar till Tyskland.