Den ’artificiella intelligentians’ tyranni
av Torsten Fagerholm Forum 2019-02, sida 05, 07.03.2019
Framtiden med AI liknar knappast något som en levande människa är kapabel att föreställa sig, och spelreglerna saknas. En sömngång in i framtiden är inte ett alternativ.
[caption id=“attachment_5632” align=“alignright” width=“239”] Torsten Fagerholm, Affärsmagasinet Forum.[/caption]
Artificiell intelligens och algoritmer handlar om så mycket mer än IT. De berör i grunden våra dagliga liv, våra sociala värderingar och normer, samt vårt mänskliga beteende.
Algoritmer och AI är per definition inte etiska. De kodas – allra oftast – av unga, vita, välbeställda västerländska män. Därmed ärver, sprider och förstärker algoritmer och AI likt megafoner automatiskt och effektivt vissa (omedvetna) preferenser och fördomar. Den mest effektiva propagandan är så subtil och osynlig att den inte går att identifiera som propaganda.
Vem bär ansvar? Enligt nuvarande lagar: ingen alls. Borde algoritmernas skapare och ägare då ställas till svars? Ofta sliter mjukvaruingenjörer och företagsledare själva med att i detalj förstå, förklara eller motivera de beslutsunderlag som leder till en specifik slutsats inom AI. Problemet blir mer ännu akut den dag AI börjar utveckla och koda sig självt och tillväxten blir exponentiell.
I dagsläget är det allt färre personer – i framtiden kanske ett kluster av ogenomskinlig AI och algoritmer – som definierar ramarna för våra liv.
Sofistikerad, datadriven påverkan har redan gjort data till ett modernt guld, samt ett potentiellt massförstörelsevapen. Facebook har visat sig inkapabelt att bära ansvar eller utöva trovärdig självreglering. Samtidigt kan det finnas otaliga fall likt Cambride Analytica där ute, medger Facebook i en rapport till värdepapperstillsynen Securities and Exchange Commission.
Av etiska skäl har bolag som Microsoft börjat införa avtalsvillkor för vad deras kunder har rätt att göra med AI. Men verkligheten, alltså tekniken, springer förbli regleringen. Via AI skapas djävulskt verklighetstrogna fejkade videor och röstklipp, skillnaden mellan sanning och fabrikation har suddats ut.
Algoritmerna är skapade för att fånga vår uppmärksamhet, att via sluga och manipulativa mekanismer framkalla beroende. Förutom att styra våra köpbeslut så används de för att påverka vårt individuella och kollektiva (politiska) beteende.
Forum har många gånger konstaterat det goda i syftet med maskininlärning, smart teknik och artificiell intelligens: att göra livet enkelt, effektivt och intuitivt. Datadrivna beslut blir alltmer effektiva i takt med att datamängden växer. Men därmed blir tjänsterna lätt dominerande, i praktiken omöjliga att rubba.
Ett kapitel för sig är den kinesiska etiken (bristen därpå) då det gäller data och AI. Bolag som Alibaba och Tencent samverkar med regeringen för att kartlägga undersåtarnas dagliga vanor, beslut, tankar och känslor, i rollerna som konsumenter, anställda och medborgare. I Kina besluter de facto statsstyrda algoritmer till exempel om medborgarnas rätt att resa utomlands.
Också västerlänningar lämnar ut data och därmed beslut om personlig hälsa, karriärutsikter, partner- och familjebildning samt ekonomiska avgöranden åt AI. Ifall vi oreflekterat accepterar algoritmernas osynliga maktövertagande kan de utmynna i en teknikdominerad dystopi. Där står mycket på spel: våra samhälleliga värderingar och vår bräckliga värdegrund, som bygger på tillit, jämlikhet och respekt.
Knäckfrågan lyder: kan våra lagstiftare möta utmaningen och tämja de teknikjättar och tjänster som genomsyrar våra dagliga liv? För att undvika den artificiella intelligentians tyranni räcker det inte långt med reglering som GDPR, uppdaterade användarvillkor eller nya sekretessinställningar. Den enda fungerande kräkmedicinen är att odla källkritisk reflexer och sund skepsis via mångsidig och tvärvetenskaplig (inklusive humanistisk) bildning samt mediekonsumtion.