Det er ikke derail, det er essentielt.
Advarsel – det bliver langt
Det er en meget klassisk skepsis i forhold til FSD og AI du taler ind i – kan maskiner med intelligens og processorhastighede, der får mennesket til at fremstå som amøber tage bedre etiske beslutninger? Og så er der det meget vigtige spørgsmål, ØNSKER VI AT AI’S TAGER ETISKE BESLUTNINGER (The Singularity Problem)
Den slags problemer du beskriver har været diskuteret i filosofien og lovgivning i meget lang tid. Der er mange andre situationer, hvor de samme dilemmaer kommer op. I en retssag, hvor en mand drejer over i to børn for at rede sin kone – har han taget en etisk rigtig beslutning. Eller ved krigsdomstole, hvor der bliver givet en ordre til at bombe en by, hvor man mener en Al-Qaeda leder gemmer sig, men der desværre også opholder sig uskyldige mennesker, hvor i blandt er CIA’s bedste kilde og alt for mange kvinder og børn. Hvornår og hvordan afgør man, om man må tage et eller flere menneskeliv frem for et andet?
I filosofien koger man den slags problemer ned til nogle generiske problemer – nogle af de klassiske er The Trolly Problem eller The Tunnel Problem. Start med at tænke over den her. En togvogn har revet sig løs og kommer buldrende ned af skinnerne. Du står ved en sporskifter og kan vælge at dirigere toget i en retning, hvor det kører over ét menneske i stedet for fem…
Har du aktivt taget et menneskeliv og er nu morder, eller har du bare prioriteret rigtigt, hvis du gør det oplagte? De fleste svarer, at ét menneskeliv i stedet for fem – det virker som en no-brainer. Men hvad nu hvis den éne person er Mette Frederikssen og de fem er Stein Bagger, Peter Lundin, Zupp, Hitler og ham der fandt på reality-tv? Pis.., ikke længere så simpelt. Der vil selvfølgelig altid være en minkavler eller to, der bare ikke kan stoppe sig selv fra at vælge at race lige hen over Mette. Der kan dog sagtens opstilles en masse scenarier, hvor næsten alle er enige om, at det er en no-brainer at gøre ingenting eller noget aktivt for at prioritere menneskeliv. Men ændre man på rammen og sætter de samme mennesker ind, så falder svaret oftes anderledes ud. Tænk på samme valg bare i en anden ramme. Igen, kan det retfærdigøres, at ét menneske kan vælge ét eller flere menneskeliv liv foran andet? Tænk over den her situation. En læge står med fem syge mennesker, der mangler 5 forskellige organer. Hvis de får dem, så overlever de og lever længe og lykkeligt. Nu kommer der én patient ind i klinikken, der faktisk ikke rigtig er så glad for livet på trods af, han er sund og rask og har 5 velfungerende organer – lægen tænker hmmm… Men går den?
Der kan sagtens opstilles senarier, hvor det kan virker som rigtigt, at et menneske tager en beslutning om, at vælge ét eller flere liv frem for et andet, men det er ikke lykkes nogen at opstille parametre for, hvordan man løser den slags problemer generiskt, fordi der uendelig mange variable. Uanset hvor mange kloge hoveder man samler og hvor lang tid man diskuterer, så bliver konklusionen på selv simplificerede problemer altid – det er en vurderingssag. Der er konsensus om, at der generelt ikke skal være enkelte individer eller organisationer, der kan tage den slags beslutninger, hvorfor heller ikke læger må (bias er uundgåeligt). I ekstreme tilfælde som krig er der udarbejdet nogle retningsliner for, hvornår der kan være undtagelser der gør, at enkelte individer kan være nødt til at tage den slags beslutninger. Når der bliver gjort et aktiv valg om at prioritere liv mod liv, bliver der altid efterfølgende vurderet på alt den information, der har været til rådighed og på, om beslutningen var rigtig. Sådan er det nødt til at være, for mennesker kan ikke andet. Hvis vi kunne bygge ind i mennesket som kollektiv (Avatar-style), at alle beslutninger skulle tages ud fra, hvad der redder flest menneskeliv uden diskrimination for alder, race, køn, profession, formue etc., vil måske ikke være i alles interesse, men ville det ikke være en oplagt beslutning, hvis det kunne dokumenteres at være en løsning, der var beder med 10 eller 100x? Vi kan ikke uploades data fra alle de beslutninger, der nogensinde er taget. Selv hvis vi kunne, så har vi ikke processorkraft til at beskæftige os med den slags beregninger og parmetre. Men det er AI’s bygget til og formidabel til. Man kan opstille parametre og så sige til maskine – giv dig til at lære af alle de beslutninger, der nogensinde er taget og overfør dem til alle de beslutninger du tager. Og du bliver bare ved og ved at starte forfra med at simulere og beregne udfald i en uendelighed for at optimere processen. Man kan give maskine de ønskede parametre - fx red så mange menneskelig som muligt. Jo mere data den får, jo bedre bliver dens beslutninger. Den er aldrig uopmærksom, aldrig påvirket af alkohol, har super reaktionsevne og syn, er aldrig træt, er aldrig egoistisk, bliver i modsætning til os ved med at blive bedre med tid etc. Alternativet som efterlyses - etiske gode beslutninger om, hvilket liv der er bedst at rede, tør vi kun i meget sjældne tilfælde give til mennesker, selvom der kan være situationer, hvor der er enighed om, at ene beslutning er bedre end anden. ØNSKER VI AT GIVE DET ANSVAR TIL AI’s?
Det spørgsmål bliver diskuteret ret heftigt og Elon Musk er faktiske den mest udtalte fortaler for, at vi må være på forkant med regulering af AI’s, så de ikke får lov at tage den slags beslutninger. For selv hvis de 100 mest kvalificerede mennesker i verden sætter sig ned og indbygger parmetre og regler, der skal navigeres efter, så kan der opstå en situation, hvor maskinen rigtigt kommer frem til, at det giver mening at nedprioritere menneskeliv i kollektivets tjeneste. Endnu værre, er det selvfølgelig, hvis enkeltpersoner eller organisationer kan indbygge parametre, der er i deres interesse. De klassiske eksempler er manipulation af aktiemarkederne, den globale økonomi etc. i ejernes interesse. Man kalder det The Singularity Problem – hvis man giver teknologi mulighed for, at tage etiske beslutninger, så ender det uundgåeligt galt. Ligesom mennesker ikke er i stand til at finde perfekte løsninger på The Trolly Problem, så er ingen i stand til at bygge perfekte parametre ind AI’s. Derfor er den eneste rigtig vej at gå, at lade maskinen lære af alle de beslutninger, der nogensinde er taget med det indbyggede narrativ at rede flest mulige menneskeliv uden diskrimination.
Vil der blive taget beslutninger, hvor der kan argumenteres for, at der var en bedre løsning – uundgåeligt. Men så snart, at der er et sted, hvor man begynder på FSD, så tror jeg beslutningen hurtigere end de fleste forventer kommer til at handle om, hvor stor en faktor af menneskeliv der bliver reddet, vi kan ignorere, før vi ikke længere kan fokusere på uendelig få enkeltsituationer. Lige nu er der som sagt tale om en faktor 5 – 10. Og med mere data og udviklingen i chips (som Tesla langt foran på), går udviklingen enormt stærkt. Tesla har en million biler på vejene, der samler data, der bliver simuleret, programmeret og forbedre hver dag i et aktivt system (hvilket konkurrenterne først er ved at begynder på). Selv siger Tesla, at trods den store mængde data, så er Trolly Problems en ubetydelig del af udfordringen med at forbedre algoritmen.
Det bedste eksempel på, hvor hurtig udvikling i AI-algoritmer går er algoritmen AlphaGo. Det kinesiske brætspil GO betragtes som det mest komplicere spil i verden, fordi man ikke skal mange steps ud af beslutningstræet, før summen af løsninger går mod uendeligt. Derfor er spillet umuligt at løse matematisk rigtig langt ud i fremtiden. En gruppe forsker har derfor bygget en algoritme, der spiller spillet mod sig selv i en uendelig simulation. Algoritmen er i stand til at lære af alle sine beslutninger og uden andre parameter end spilles regler blive bedre, hver gang den kører en simulation. På den første dag kørte algoritmen 5 millioner simulationer og udviklede evne til at slå et menneske, der ikke var trænet i spillet. I løbet af et par dage, havde den til stor overraskelse evner til slå en verdensklasse spiller, der havde trænet hele livet. Kort efter kunne slå alle verdens bedste GO-beslutningstager simultant. Udfordringen med FSD er på nuværende tidspunk mere et spørgsmål om mængden af data, end at give de rigtige parametre.
Når vores fokus bliver sat i det rigtige perspektiv, så giver det uendelig meget mening, at vi begynder lade den slags algoritmer tage beslutninger i trafikken og uendelig lidt mening, at vi tillader den slags algoritmer bliver brugt til at manipulere vores beslutningsprocesser, liv og verden, som det bliver gjort i stor stil hos fx Google og Facebook. Til dem der ikke har set den, vil jeg gerne anbefale dokumentaren The Social Dilemma
Redigeret af los_champ d. 22-01-2021 19:04