De digitala systemens motsvarighet till ”mänskliga faktorn”

En bugg kanske är att likställa med ”mänskliga faktorn” när det gäller programmerbara system. Eller är det istället det som systemen inte har, som t.ex. känslor, moral och kreativitet, som blir systemens motsvarighet till ”mänskliga faktorn”?

Detta skulle man kunna kalla den ”maskinella faktorn”. Och i A.I.-sammanhang skulle man kunna kalla det A.S. – Artificial Stupidity.

Sårbarhet – det människan bygger upp kan människan riva ner

Problem med IT-system, appar och webbplatser är något som man kan höra och läsa om dagligen i media. Men när det uppstår ett problem i t.ex. något större företags eller myndighets IT-system så är det väldigt sällan som allmänheten får reda på vad orsaken till felet är.

Detta hade varit både intressant och viktigt att veta. Viktigt i den mening att vi då kan ta ställning till hur mycket vi är villiga att lita på de digitala systemen.

Vi får aldrig riktigt veta om det beror på ”mänskliga faktorn” eller om det är frågan om buggar, systemfel eller kanske skadliga koder (hacker-attacker). Jag vet inte – men det känns som att det inte rapporteras så mycket om själva orsakerna kring dessa fel. Kanske är det svårt att få tag på den typen av information.

Utsatta företag och myndigheter håller förmodligen gärna tyst om orsakerna. Jag vet inte. I vilket fall så tycker jag att det är ett ämne som borde belysas lite mer. När det gäller hackerattacker och intrång så är det nog ett stort mörkertal. Detta är helt naturligt – att det är på det viset. Det kan nog bli stora ekonomiska bakslag om ett intrång i ett datasystem blir allmänt känt. Men mörkertalet kan också vara ett omedvetet mörkertal – man vet helt enkelt om att ens system har blivit hackat.

För att få ner mörkertalen så kanske det vore en bra idé att införa nån typ av amnesti. En data-intrångs-amnesti. Att man t.ex. har en tidsperiod på sig att rapportera ett intrång och därmed slipper dryga påföljder.

A.I. gör det bekvämt för oss

Exempel: Google Lens

Jag har testat Googles funktion – Google Lens – vilken är en ganska häftig app, eller funktion, som kan hitta bilder på nätet som liknar din egen, dina egna, på din telefon. Du tar en bild, trycker på ”visa liknande”, vips så kommer det upp en hel del liknande bilder. Och ibland, som jag märkte, är ”sökresultat” väldigt exakt. Jag testade att ta en bild på en gammal keyboard, bilden var tagen så att bara en liten del av den kom med. Och resultatet – Google Lens visade bilder av samma modell.

Detta är ju en häftig grej som jag tror kan kategoriseras A.I.. Denna funktion kan man säkert använda för att, t.ex., jämföra priser på varor i butik med priser på varor på webben. Man tar en bild, trycker på ”visa liknande” och får då säkert nån bild från nån webbshop.

Men hur funkar detta egentligen? Hur kan ett system ”läsa” av en bild och sen hitta liknande bilder på nätet. Jag vet inte, men jag skulle gärna vilja veta. Allmänheten vet nog inte hur avancerat A.I. är och hur långt utvecklingen har kommit. Vi behöver nog lite allmänbildning på området.

Något som också funkar (på min Android-telefon med Google Foto-appen) är att ta en bild på en text och sedan söka efter bilden med tal-funktionen. Jag säger ett ord som står med i texten och Google Foto hittar bilden.

Sakta i backarna – behöver vi verkligen detta?

Detta är en fråga som vi måste ställa oss men först måste vi nog ”spåna” lite mer i vart utvecklingen av A.I. kan leda till. Och när vi har gjort det så kan vi ställa oss frågan om vi verkligen behöver det. När det gäller utvecklingen av A.I. så borde vi nog vara lite mer kritiska till det än vad vi idag är.

En nackdel med A.I., som jag tänker kan uppstå, är om t.ex. myndigheter börjar använda det i stor utsträckning. Det kan bli väldigt stelbent. ”A.I. har rätt..”, ”I våra system kan vi se..”, ”A.I. säger..” – Artificiell dumhet.

Lämna en kommentar

E-postadressen publiceras inte. Obligatoriska fält är märkta *

6 − 3 =