För en tid sedan blev jag tillfrågad om jag kunde föreläsa på Human Factors Networks seminarium på Ljungbyhed i april i år. Human Factors Network in Sweden (HFN) är ett nätverk som sedan sitt grundande 1996, ursprungligen som Swedish Center for Human Factors in Aviation, har vuxit och utvecklats för att omfatta en bredare arena av human factors tillämpningar. Idag fokuserar HFN på att utveckla kunskap och förbättra interaktionen mellan människor och system inom olika sektorer såsom transport, medicinteknik, IT, och tillverkningsindustri, för att främja systemfunktionalitet samt människans trivsel, hälsa och säkerhet.
Seminariet i Ljunbyhed bestod av två dagars föreläsningar och samtal där utvecklingen av AI ur perspektivet förhållandet mellan människa och maskin var i centrum. Detta var också det ämne jag fick frågan om att föreläsa inom på seminariet. Själva föreläsningen finns inspelad ovan, och i sammanfattning i text nedan.
Människan, AI och autonomi
Artificiell Intelligens är idag en integrerad del i vår vardag, och syns överallt, från sökmotorer och bildredigering i mobiltelefoner till finansiella tjänster eller i vårt hälsovårdssystem. Detta har möjliggjort framsteg inom personalisering, automation, beslutsstöd och i många andra tillämpningar. Offentliga sektor har inte varit undantagna från denna utveckling, där AI tillämpas för att förbättra tjänster för medborgare och stödja arbetet i förvaltningar.
I takt med att AI fortsätter att utvecklas och integreras i nya sektorer, syns en pågående transformation av arbetsmarknaden som en konsekvens av utvecklingen. Nya arbetstillfällen och uppgifter skapas, medan andra försvinner. För de allra flesta av oss kommer AI att påverka hur vårt arbete går till i praktiken. För mig som forskare har min verktygslåda radikalt förändrats på ett år, och påverkar vad jag gör. Förändringarna i arbetsmarknaden är inte friktionsfri, och ökar behovet av ny kompetens, skapar utmaningar och spänningar, men väcker också etiska frågor.
I samhället står vi inför att ta vara på de möjligheter som AI erbjuder, samtidigt som vi kan hantera de problem och utmaningar som uppstår, särskilt när vi står inför risker relaterade till säkerhet, integritet och användning av AI i oetiska sammanhang. Regleringen av AI, särskilt inom EU där den nya AI Act har etablerats, är avgörande för att hantera dessa utmaningar. Lagstiftningen måste anpassas för att reflektera de nya verkligheter som AI skapar och de potentiella riskerna som följer. Hur detta ser ut, och vilka utmaningar som finns, varierar något mellan olika branscher och tillämpningar. I föreläsningen ger jag exempel från några olika sektorer, bland annat transportsektorn, hälso- och sjukvården och användning i militära tillämpningar.
I transportsektorn är AI en omvälvande kraft. Självkörande fordon och autonoma transportsystem är kanske de mest konkreta exemplen på var human factors spelar en avgörande roll. Inom flyget har denna utveckling pågått länge, från enklare autopiloter till dagens helt autonoma flygsystem. Designen av dessa system måste ta hänsyn till hur människor interagerar med och litar på AI för att styra fordon. Detta omfattar allt från ergonomi i gränssnitt till psykologiska aspekter av att överlämna kontroll. En av de största utmaningarna är att skapa system där AI och människa kan samarbeta, där systemen inte bara är tekniskt säkra utan också intuitiva och accepterade av användarna.
Inom hälso- och sjukvården ökar användningen av AI för att diagnostisera sjukdomar, föreslå behandlingar och hantera patientdata. Här är human factors kritiskt för att säkerställa att AI-verktyg används på ett sätt som kompletterar den mänskliga expertisen snarare än att ersätta den. Frågor kring ansvar och etik blir särskilt påtagliga när AI börjar påverka beslut som har direkt inverkan på patienters hälsa och välbefinnande. Det är viktigt att AI-verktygen inte bara är tekniskt kompetenta utan också anpassade till de etiska och praktiska realiteterna i sjukvården.
Användningen av AI i militära sammanhang, särskilt i autonoma vapensystem, ställer ytterligare krav på forskning utifrån perspektivet av förhållandet mellan människa och maskin. Här behöver de etiska dimensionerna och riskerna adresseras och vara en central del av utvecklingen. Fel i dessa system kan ha katastrofala följder. Design och implementering av AI i vapensystem kräver noggranna överväganden kring hur beslut fattas, hur de kan övervakas och vilka juridiska och moraliska ramar som bör gälla. Samverkan mellan AI och operatörer måste präglas av tydlighet för att säkerställa att beslut är transparenta och ansvarsfulla. Utvecklingen vi ser idag går på flera sätt i motsatt riktning. Det finns en tydlig motsättning i utvecklingen av AI-baserade vapensystem, där helt autonoma system får en högre verkansgrad, då de till exempel inte behöver kommunicera med andra enheter för att agera, och därigenom kan undvika olika typer av störning. Också hastigheten i beslutsfattande ökar. Det finns idag exempel på drönare och flyg med mycket hög grad av autonomi. Nyligen visade exempelvis DARPA i USA hur de genomfört en första dog fight mellan ett helt autonomt stridsflyplan och ett annat, med en mänsklig pilot.
Den hastiga utvecklingen av AI-tjänster i samhället innebär att vi också ser ett ökat behov av forskning och utveckling som bidrar till att realisera de positiva potentialerna av AI samtidigt som vi minimerar riskerna.. Det handlar om ansvarsfull utveckling, frågor om etik, diskriminering, användbarhet och säkerhet, för att nämna några områden. Min förhoppning är att denna text, och föreläsningen ovan, bidrar till att väcka tankar och bjuda in fler till ett samtal om dessa frågor.