Det är en intressant fråga om förhållandet mellan censur och öppenhet när det gäller generativ AI. Frågan har aktualiserats igen till delar på grund av den nya tjänsten Venice AI som i praktiken gör det betydligt lättare att använda de redan befintliga öppna språkmodeller som finns tillgängliga. Det är en användarvänlig paketering av teknik som för en större allmänhet tidigare varit svår att ta del av. Den här frågan intresserar mig. Det är lätt att tänka att detta kan utgöra en stor fara för samhället. Att språkmodeller som inte är censurerade skulle åsamka stor skada i samhället, och att det därför är en god sak att företag väljer att begränsa deras teknologier. Det finns goda argument för varför det är bra att begränsa funktionalitet i stora språkmodeller. Samtidigt är frågan för min del mer komplex och man måste ta i beaktan de problematiska aspekterna av censur, så som de utövas av stora AI-plattformar som OpenAI, Google Gemini och Anthropics Claude. Jag tänkte börja med att problematisera frågan om censur och generativ AI en del initialt innan jag ser på vägar framåt som kan komma att bidra till att hantera risker med generativ AI, samtidigt som det går att dra nytta av dess potential.
Men tillbaka till frågan om censur. Det finns flera dimensioner i denna komplexitet. En första sådan som blir viktig, är den om maktfördelningen mellan användare och tjänsteleverantörer, samt de idémässiga perspektiv som kan påverka censuren. Makten över vad som censureras i merparten av de stora generativa språkmodeller de flesta använder, ligger idag hos ett fåtal stora företag, vilket innebär att beslut om vad som är acceptabelt att diskutera eller skapa bilder av fattas utan någon egentlig möjlighet för användare att påverka dessa beslut. När företag som OpenAI, Google, Meta eller ByteDance bestämmer censurregler agerar de inte bara som tekniska leverantörer utan också som beslutsfattare i moraliska och etiska frågor. Det kan bli problematiskt eftersom dessa företag verkar i en kontext, där det kan finnas intressen som för användaren inte syns, som färgar förutsättningarna för att använda tjänsten. Det kan röra sig om både medvetna val genom censur, men såklart också omedvetna val skapade genom selektion i träningsdata med mera. Men oavsett det är medvetet eller omedvetet, så saknar användarna inflytande över dessa beslut och tvingas acceptera de regler som företagen sätter upp, om de ska dra nytta av tjänsterna. Det gäller inte bara slutanvändare som privatpersoner, utan också företag, offentliga organisationer och civilsamhälle. Här blir det genast bekymmersamt med en slags censur som inte går att tydligt se konturerna av.
En andra dimension i frågan är att merparten av de företag som dominerar AI-marknaden är amerikanska och kinesiska, och deras censurpolicyer kan vara färgade av respektive lands kulturella och politiska normer. Det riskerar skapa problem när dessa normer hamnar i konflikt med normer och värden i andra kulturella sammanhang. Politiska diskussioner som är acceptabla i en del av världen censureras i en annan, vilket kan leda till problematiska perspektivförändringar över tid. Det är särskilt bekymmersamt blir det när censuren reflekterar en ideologi som inte är förenlig med en demokratisk samhällsutveckling.
En tredje dimension är skillnaden mellan den censur som utförs av företag och den censur som utförs genom en demokratisk process. När företag har makten att censurera information kan detta ske utan transparens och ansvarsskyldighet. Om censuren däremot sker genom en demokratisk process, finns det möjligheter genom samhällets demokratiska processer att delta i beslutsfattandet och att hålla beslutsfattare ansvariga. Det kan skapa en mer rättvis och representativ censurpolitik som bättre reflekterar samhällets värderingar och behov.
En jämförelse kan här göras med filmcensuren i Sverige, som har genomgått en betydande utveckling från att ha varit strängt kontrollerad av staten till att bli mer liberal och anpassad till samhällets förändrade normer och värderingar. Ursprungligen skapades filmcensuren för att skydda allmänheten, särskilt barn och ungdomar, från skadligt innehåll. Under 1900-talet var den statliga censuren ansvarig för att granska och ibland förbjuda filmer som ansågs olämpliga. Med tiden har censuren minskat i omfattning och makten har flyttats till publikens eget omdöme, med större betoning på åldersgränser och varningar snarare än förbud. I jämförelse med filmcensurens utveckling ser det ut som om vi står inför en liknande debatt när det gäller generativ AI. De stora AI-plattformarna censurerar innehåll för att förhindra spridning av skadlig information, såsom instruktioner för våldsamma eller illegala handlingar. Precis som med filmcensuren är syftet att skydda användarna, men makten ligger nu framförallt hos privata företag snarare än hos stater. Visst har EU nyligen lagt fram lagstiftning inom området, men processen är långsam och det lär dröja innan dess effekter blir märkbara i praktiken. .
En fjärde dimension i frågan är huruvida censuren är reglerad och transparent eller godtycklig och ogenomtränglig. Reglerad censur innebär att det finns tydliga och förutsägbara regler för vad som censureras och varför och i relation till vem. Detta skapar tydlighet i relation till användarna och möjliggör en mer förutsägbar och rättvis användning av AI-tjänster. Godtycklig censur, å andra sidan, kan leda till missbruk och orättvisa beslut som skadar användarnas förtroende och frihet.
Censur som utövas av stora AI-plattformar är alltså en komplex fråga med många olika överväganden. Det blir i min mening viktigt att belysa de maktrelationer som uppstår när företag har ensidig kontroll över vad som censureras. Det blir också viktigt att värdera den potentiella risken som uppstår när tillgång ges till ocensurerad teknik, mot den risk som uppstår när teknik censureras.
Här spelar reglering en viktig roll och kan skapa tydligare riktlinjer för utformning av AI-tjänster. Det är bättre att behandla frågan om generativ AI i en sådan kontext, snarare än att låta enskilda företag hantera det själva. Den senare modellen har redan testats vid reglering av sociala medier. När samhället, politiken och juridiken agerar för sent, blir det mycket svårare att skapa regler som ger värde utan att skada samhället och individer.
Sällan har vi sett en så hastig utveckling av ett teknikområde som det som nu sker inom artificiell intelligens. Det är bra att EU klivit fram och skapat de första stora byggstenarna för en reglering inom området. Samtidigt så är teknikutvecklingen så pass dynamisk och snabb, att de regulatoriska systemen inte alltid förmår hantera frågan på ett fullgott sätt. Att förlita sig till företagens egna hantering av dessa frågor är inte heller tillräcklig. Här behöver fler engageras och bättre förutsättningar skapas för att säkra en god användning av generativ AI.
Frågan är vad som går att göra i väntan på en bättre reglering och bättre regulatoriska processer, i en tid där företagens censur är godtycklig och inte nödvändigtvis alltid till nytta? En väg framåt är att se till andra områden, där säkerhet och funktion är viktigt, samtidigt som man vill kunna premiera utveckling och förändring.
En alternativ väg framåt kan här vara att skapa testnings-, prövnings- och certifieringsmodeller som erbjuder marknaden möjlighet att nyttja generativ AI på ett bättre sätt. Precis om vi sedan decennier har haft förfaranden för att testa olika former av produkter för att säkerställa deras säkerhet och funktion, skulle något liknande kunna göras med generativ AI. Framförallt sådan som ska användas i samhällskritisk verksamhet, bland myndigheter, regioner, kommuner, företag och civilsamhälle, där det finns krav på kvalitet och garantier för god funktion i teknik. Vi har metoder idag för att testa och pröva säkerhet och funktion i allt från bensinpumpar och hissar till IT-system. Här kan man tänka sig att utforma en statligt finansierad, oberoende test- prövnings- och certifieringsverksamhet för generativ AI. Kravställningen ställs i samverkan mellan de organisationer som vill nyttja certifieringen, och en oberoende verksamhet utformar och genomför testning och prövning mot denna kravställning, samt certifierar de tjänster och system som klarar av testningen. Testning skulle exempelvis kunna ske utifrån flera olika dimensioner, så som säkerhet, användbarhet, interoperabilitet, tillgänglighet och etik. Ett sådant frivilligt men normerande system skulle kunna bidra till att skapa trygghet för såväl de som tillhandahåller tjänster som nyttjar generativ AI, samtidigt som det uppstår enklare möjligheter för köparen av tjänster och produkter att kunna välja teknik som är tillförlitlig.
Det skulle vara en stor och svår utmaning att skapa ett sådant här kvalitetsramverk med tillhörande organisering, processer, styrning och ledning. Samtidigt skulle det troligtvis vara betydligt snabbare och mera dynamiskt till sin karaktär än enkom reglering, och ge betydligt större trygghet och värde för marknaden. Systemet skulle också kunna fungera alldeles oavsett en generativ språkmodell byggde på öppen eller proprietär teknik, vilket även borgar för möjligheten att på ett mer säkert sätt använda sig av öppna språkmodeller för olika ändamål.
Tack för att du läste ända hit! Hur går dina tankar? Ser du att vägen framåt är att företagen bakom de digitala tjänsterna själva ska äga makten över dessa frågor? Eller ska vi ha en försiktighetsprincip till dess reglering är på plats? Skulle en modell för certifiering kunna fungera? Jag är nyfiken på dina tankar. Skriv gärna en rad eller två i kommentarerna om hur du tänker i frågan.
@blog Spännande tankar! Jag skummade mest pga långt men jag är också orolig för att man lämpar över mer makt till jättarna. Samma sak gäller moderering. Om man lyssnar på vissa prata om skit på internet så låter det som att de vill att några få jättar ska kontrollera all kommunikation och data för då kan man ge dem ansvaret (och makten) att moderera. Jag vill ju ha tvärtom: en uppsjö av aktörer och då måste moderering och ansvar se annorlunda ut än vid centraliserade tjänster
Hur menar du kring testning och certifiering: Ska det vara krav att gå igenom sådan testning för att finnas på marknaden, eller snarare en märkning som gör att konsumenter lättare kan veta vad de väljer?
För mig en stor fråga de storskaliga risker som (framför allt nästa generations) ocensurerade AI kan skapa. Och de kommer man inte åt med märkning — det räcker med _en_ sådan produkt för att exempelvis ge illvilliga aktörer ett alldeles för bra redskap. Oavsett hur många andra som väljer andra lösningar.
När det gäller prövning, testning och certifiering föreställer jag mig att det kan vara en modell för att kravställa vis upphandlingar till exempel. Men det skulle också kunna vara mera bindande processer i ett senare skede. Tanken är att de som väljer att ingå i en sådan certifiering och standard blir de som kracställer, och där en oberoende aktör genomför testning och prövning. Även leverantörer av system skulle kunna välja att genomgå förfarandet på egen hand som en slags kvalitetsmärkning. Min tanke var inte i första hand för slutkonsumenten utan som ett system för att skapa bättre tjänster redan innan de når användaren.
När det gäller din farhåga om nästa generations modeller så ser jag en sådan risk. Men min tro är då inte på de företag som levererar tjänster utan på bred reglering. Företag som OpenAI har redan med all önskvärd tydlighet visat hur de inte varken kan eller bör ha den självreglerande rollen.
Det är ett intressant resonemang. Tack! Några tankar jag har är att, förutom AI act som jag förstår kommer resultera i CE-märkta system, provning och testning skulle kunna liknas vid ATEX direktivet och EX märkning (explosiv atmosfär).
För mig låter det som en möjlig väg framåt för att styra systemleverantörer. Även om det hörs som en klurig uppgift att definiera testmoment. I och med att hur man än vänder och vrider är det några människor som skapar grunderna till AI-systemet, skriver förutsättningarna liksom.
Sen har jag i min nuvarande roll som projektledare för e-arkivering inom kommuner, erfarenhet av att det fortfarande upphandlas nya IT-system som inte kan möta kraven på arkivering tex. Med det menar jag att man inte kan få ut sin information eller handlingar som ”export” för att flytta över till ett system för långtidsbevarande. Det tycker jag är oroväckande. Med det tänker jag att det därmed finns samma risk att kommuner inte köper in dessa ”AI-certifierade” system tyvärr (det brukar ju bli en större peng på sådana produkter).
Jag tror på alternativa metoder för offentlig upphandling på nåt vis. För att tillsammans bygga det som gör nytta (varken mer eller mindre) med systemutvecklare, slutanvändare och alla där emellan. Man kan se att kravställningen diffar mellan upphandlingskrav och tech leverantörer. Nu blev det kanske lite off topic här på slutet 🙂
@blog
Certifiering är svårt i praktiken för LLM modeller. Det är nästan omöjligt att ha heltäckande testning, och inte ens företagen själva vet vad som faktiskt finns i sin träningsdata (i praktiken en stor del av hela det öppna nätet).
Det betyder också att censuren "läcker"; i modellen ingår data man vill censurera och det finns alltid en sannolikhet att modellen skapar utdata baserat på det i strid med censuren.
Tror inte vi riktigt kan behandla det här på samma sätt som annat.
Hej Janne! Tack för din insiktsfulla kommentar. Jag håller med om att certifiering är svårt. Med det sagt tror jag inte att det är omöjligt. Det är early days för generativ AI och jag skulle tro att goda praktiker över tid kan komma att växa fram i takt med att både forskning och praktik förstår mer. Att det är svårt är i min mening ett bra argument för att göra ett rejält samlat försök.
När det gäller censur och läckage så håller jag helt med dig. Det är ett av de bärande argumenten mot varför företag skulle ha proprietär och sluten censur. Här hade det varit bättre med någon form av öppna standarder för att hantera frågor om censur, läckage med mera. Och även att fundera över vad som är rimliga gränser, och vilka brister, eller mängder av brister, man är beredd att ta vid ett enskilt tillfälle.
Tack Carl för en bra artikel som väcker några frågor hos mig:
– Skulle en oberoende organisation som tex W3C fast för AI kunna skapa riktlinjer och standarder?
– De sociala nätverken krävs på mer och mer ansvar gällande innehåll och effekt deras produkt har på användare. Varför ska inte detta även inkludera AI? Känns som att varje ny teknik börjar på en ny kula med helt nya / inga regler.