Kommissionens förslag, som kritiker döpt till Chat Control 2.0., vill göra det möjligt att kunna gå igenom och kontrollera alla meddelanden som skickas digitalt mellan två användare.
Kontrollen ska skötas av artificiell intelligens och avgöra om innehållet den övervakar är säkert eller om det finns något – ett nyckelord, en bild eller annat – som kan anses vara intressant för vidare granskning.
Inget av det här är frivilligt, vare sig för användaren eller den som står för skannandet av innehållet eftersom det nya lagförslaget skulle göra det obligatoriskt.
Alla företag som tillhandahåller tjänster som exempelvis chattar, mail eller meddelandetjänster i forum och appar måste göra den här kontrollen av allt material som flödar genom deras tjänster.
Förslagets mål är hedervärt – det handlar om att förebygga och bekämpa sexuella övergrepp mot barn, ett problem som enligt EU-kommissionen är ett växande problem, inte minst online.
Kommissionen har kommit fram till att den rådande lagstiftningen, som bygger på att företag frivilligt sköter rapporteringen, inte har fungerat i tillräckligt stor utsträckning. Den nya lagen är tänkt att ersätta denna.
Men det här är inte oproblematiskt av flera anledningar, som många vid det här laget har påpekat.
Den personliga integriteten hotas
Ett av de centrala problemen med förslaget är just delen som handlar om det obligatoriska skannandet av all kommunikation, eftersom en del tjänster som exempelvis chatapparna WhatsApp och Signal bygger på så kallad end-to-end-kryptering.
Det här betyder förenklat att när två personer använder den här sortens kommunikation så sker samtalet enbart mellan de två, och det garanteras av end-to-end-kryptering – en förvrängning av meddelandena som bara kan avkodas av de två som är involverade i samtalet.
Ingen tredje part, inte ens det företag som tillhandahåller tjänsten, kan gå emellan och läsa meddelandena.
Men EU-kommissionens förslag skulle betyda att företagen bakom exempelvis Telegram och Signal skulle bli tvungna att gå igenom meddelandena som skickas via apparna, vilket innebär att de antingen måste göra så att tjänsterna inte längre har end-to-end-kryptering eller bygga in en funktion där en tredje part kan få tillgång till de krypterade samtalen, en så kallad bakdörr.
IT-experten Benjamin Särkkä är bekymrad över att man skjuter förbi målet och istället skapar en situation som gör vardagen mycket osäkrare:
– Det som de som skrivit lagen inte tycks förstå är att om det finns en dekrypteringsnyckel som kan användas för att läsa all kommunikation och en brottsling får tag på den, så kommer brottslingen inte att bry sig om lagstiftningen. Och efter att vi gett upp vår kryptering så att all vår kommunikation är öppen så är det bara att utvidga lagstiftningen till att gälla en massa andra saker också. Vi bygger ett system som är färdigt att användas fel.
Stefan Axelsson, professor i digital forensik och cybersäkerhet vid Stockholms universitet, är inne på samma linje:
– Det finns två sätt att göra det här på: antingen bryter du krypteringen och lägger en slags server i mitten, eller så får man göra skanningen på ändpunkterna, som i många fall är en mobiltelefon. Så det blir inte möjligt att kommunicera krypterat, eller anonymt, på nätet.
Ändamålet är rätt men medlen är dåligt genomtänkta
Förslaget har överlag väckt mycket kritik från olika håll.
FN:s människorättskommissionär har påpekat att det här kan leda till risker för utsatta grupper eller för yrkesutövare som behöver kunna kommunicera privat, som exempelvis journalister, människorättsaktivister och politiska meningsmotståndare. Även Svenska Journalistförbundet har flaggat för att källskyddet kan vara i fara.
I Sverige har saken dessutom lyfts upp med extra intresse eftersom det är den svenska EU-kommmissionären Ylva Johansson som står bakom förslaget.
Maria Rautavirta på Kommunikationsministeriet i Finland ser inte heller att lagförslaget i sin nuvarande form är rätt för ändamålet.
– Vi vill inte ha ett läge där vi tvingar fram tjänster som antingen bryter mot krypteringen eller skapar tjänster som är osäkra för användarna. De som förhandlat fram det här i EU har trott att det går att hålla en hög säkerhetsstandard och ändå begränsa krypteringen. Men det går inte. Antingen har du säkra miljöer eller så har du öppna miljöer.
Rautavirta säger att det är en svår balansgång eftersom det är en diskussion som ska föras mellan de instanser som sysslar med brottsprevention, de som ska värna om de mänskliga rättigheterna och dessutom politiker på både inhemsk och EU-nivå.
Men i nuläget säger hon att Finlands linje är att det krävs en omarbetning av förslaget för att det ska fungera.
Datamängden ger brottsbekämparna huvudvärk
Bortsett från problem med brott mot den personliga integriteten, så finns det även mera praktiska problem med förslaget, menar Stefan Axelsson:
– Massövervakning fungerar inte. Det är en åtgärd som kostar väldigt mycket och ger väldigt lite. Och ett stort skäl till det är den stora mängd falsklarm man kommer att drunkna i.
Det har emellanåt i samband med diskussioner om lagförslaget lyfts upp sådant som att den artificiella intelligensen som ska skanna allt material kommer att flagga även oskyldigt material, som att du skickar en bild på ditt barn på stranden till en annan person, och därmed stämplar dig som pedofil.
Men det som snarare är problemet, säger Axelsson, är att den mängd information som skulle skapas av att lagförslaget sätts i verket skulle kräva orimliga resurser att hantera.
– I praktiken kommer ingen som skickar bilder på badande barn att flaggas, för det kommer polisen överhuvudtaget inte ha tid med. Och i samma sekund som en riktig person tar en titt så ser de att det inte är något åtalbart. Men systemen kommer naturligtvis att reagera på det, för det måste de.
Och frågan är då vad man ska göra med all den här informationen, säger Axelsson.
– Då blir det fråga om frekvens. En bild gör inte en pedofil, 10 000 gör det. Ska man då ha stora databaser för att kunna lagra och räkna på allt det här?
Axelsson ser förslaget som kontraproduktivt eftersom det tvingar myndigheterna att lägga energi och pengar på enskilda innehavsfall istället för att man lägger krutet på de riktiga förövarna. Och i slutändan är det inte effektivt.
– Pedofiler är inte dumma. De kommer att hitta andra sätt att dela bildmaterial med varandra. Det blir förstås svårare med grooming, men det finns säkert sätt för det med.