Filmtips: WarGames (1983)

War Games är från 1983 och utspelar sig under Kalla krigets dagar. David, en nördig tonåring, hackar sig in på vad han tror är en spelserver. Den är speciell, förstår han, för den verkar vara en självlärande artificiell intelligens. Den kan träna sig själv i olika spel genom att spela dem många gånger.

AI:n föreslår ett stillsamt parti schack, men David tycker att spelet Thermonuclear War verkar mer spännande.

Vad David inte inser, är att han har tagit sig in på militärens simuleringsmaskin: War Operation Plan Response, WOPR. Den tränar genom simuleringar på hur USA bäst ska agera i händelse av ett anfall från Sovjet.

Militären har dock bristande kännedom om hur deras egen WOPR fungerar, så när spelets simulerade missiler närmar sig, tror de att det är ett verkligt anfall, och de gör sig redo för att skjuta tillbaks …

War Games är en underhållande film, om än väldigt orealisktisk och tillrättalagd, men ger ändå vissa insikter om hur maskininlärning och hacking fungerar. Dessutom får man se härliga gammaldags datamaskiner med många blinkande lampor.

Källa: WarGames (1983) – IMDb

Maskinen som är bäst på att spela Go

En stor händelse i april fjol var att en maskin slog den mänskliga världsmästaren i spelet Go. Men maskinen måste läras upp av människor. 

I höst meddelades om en ny version, som själv kunde lära sig bemästra spelet. Den här artikeln beskriver hur det går till:

Alpha Go Zero: How and Why It Works – http://tim.hibal.org/blog/alpha-zero-how-and-why-it-works/

Filmtips: Transcendence (2014)

Transcendence är en välgjord film från 2014 som på ett bra sätt illustrerar de faror som många oroar sig för när det gäller artificiell intelligens. Vad händer om en maskin blir smartare och mäktigare än människan? Vilka mål kommer den att eftersträva?

Vissa forskare och tänkare inom maskinintelligens menar att för att undvika en kamp människa mot maskin, bör vi integrera oss med tekniken – eller integrera tekniken i oss. Det är vad som händer i Transcendence. Men då ställs också frågan: vore vi då fortfarande vi?

Den klassiska frågan om en maskin kan vara självmedveten tas också upp i filmen.

Transcendence

 

Two leading computer scientists work toward their goal of Technological Singularity, as a radical anti-technology organization fights to prevent them from creating a world where computers can transcend the abilities of the human brain.

 

Kanske en lösning på stoppknappsproblematiken

Okej, så vad är stoppknappsproblematiken? Jo, när vi väl har skapat en robot som är smartare än oss själva, är risken att den vill något annat än vad vi vill. Då vill vi att det ska finnas en stoppknapp på den, så att vi kan hindra den från att göra något stort fel, till exempel utrota mänskligheten.

Men eftersom den är smartare än oss och mer kapabel, är risken att den hindrar oss från att trycka på stoppknappen. Det är stoppknappsproblematiken, och du kan lära dig om den här.

Vi måste få våra maskiner att vilja samma sak som vi. Vi måste bygga in våra värderingar i dem. Den stora frågan är hur vi gör det.

Rob Miles funderar över en möjlig lösning hed hjälp av en teknik som kallas Cooperative Inverse Reinforcement Learning.

Reinforcement learning innebär en sorts learning by doing: maskinen provar olika saker slumpmässigt och får poäng enligt ett regelverk. Den utvärdera sina försök mot vad den får för poäng och lär sig därigenom att göra rätt. Exempel på det är den här roboten som lär sig att ta sig framåt eller den här maskinen som lär sig att programmera. Filmen förklarar ganska bra vad det innebär.

Inverse reinforcement learning innebär att i stället för att maskinen provar sig fram och får poäng, så iakttar den en expert och utvärderar hur den gör och vilka poäng den får. Filmen presenterar några problem som finns med den tekniken.

Cooperative inverse reinforcement learning innebär ett samarbete mellan människa och maskin i inlärningen. Mer om det i filmen!

Rasistmaskinerna anfaller

När vi lär upp våra maskiner, är risken stor att vi även lär dem våra fördomar – ja det kanske till och med är oundvikligt.

Maskininlärning går ut på att mata en maskin med en stora volymer av data, och utifrån denna data dra slutsatser eller göra förutsägelser. Men om datat är snedvriden – på grund av att vår värld är det – så bibehålls denna snedvridning i systemet.

Bilden har ingenting med Svartbäcken att göra. Inte ens med Gottsunda.Ett exempel:  Låt säga att polisens AI som förutsäger brottsplatser, ”vis av erfarenheten” säger att den största sannolikheten är att brott kommer att ske i Gottsunda, så kommer polisen att leta noggrannare efter brottslingar där än i Svartbäcken. De tillslag som görs, adderas till systemets data, och systemet har då anledning att göra ännu starkare förutsägelser om att brott kommer att begås i Gottsunda.

Jag har skrivit om det här tidigare men denna artikel sammanfattar och redogör ytterligare.

 

Källa: Rise of the racist robots – how AI is learning all our worst impulses | Inequality | The Guardian

Hur stoppar vi robotupproret?

Om vi utvecklar maskiner som är smartare än människor, kan de då utgöra ett hot mot oss själva? Kan vi inte bara se till att ha en stor stoppknapp som vi kan trycka på om hoten tornar upp sig? Här förklaras stoppknappsproblematiken (tack för tipset, K.L.!).

I och med teknikutvecklingen är frågan relevant att fundera över, men problemställningen är inte ny: redan på 40-talet formulerade science fiction-författaren Isaac Asimov robotikens tre lagar:

  1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
  2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
  3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Som en parentes kan nämnas att Randall Munroe har funderat kring varför Asimov lagar kommer i den ordning de gör:

The Three Laws of Robotics – XKCD

Men de tre robotlagarna fungerar inte, menar många. Inte så konstigt: de är en science fiction-författares idé och inte något som en AI-forskare har tänkt ut. Dessutom är de från en tid långt innan det fanns AI och robotar på det sätt som det finns idag.

Här förklaras varför robotlagarna inte går att implementera:

Andra verkar inte tycka att det är något större problem: bygg in ett chip i robotarnas hjärna med vilket du kan stänga av dem:

Ett ofta återkommande förslag på lösning är att vi måste bygga in våra värderingar, vår moral, i våra maskiner. Dr Daniel Glaser är en i raden och här kan du läsa hans kolumn i The Guardian: Teaching morality to robots.

Ett längre resonemang av Daniel Glaser kring samma sak kan du höra i det här podavsnittet.

Läs också min tidigare post om Nick Boström.

Automatiserad diskriminering

Som jag skrivit tidigare när det gäller ansiktsigenkänning, så tycker jag det är läskigt. Jag skulle vara ganska nöjd med om mitt ansikte aldrig kändes igen.

Men när ansiktsigenkänningsprogrammet inte uppfattar Joys ansikte som ett ansikte, medan det uppfattar en vit mask som ett ansikte – ja då är det lätt att inse att någon har gjort fel.

Och det är ett allvarligt fel, eftersom det innebär en snedvridning som påverkar redan utsatta grupper negativt, och som dessutom sprider sig snabbt över värden – lika snabbt som du laddar ned källkoden.

– Vem som kodar, hur vi kodar och varför vi kodar spelar roll, säger Joy Buolamwini.

Tidigare har jag skrivit om hur lätt det är att vi bygger in våra fördomar i de maskiner vi skapar.

Men Joy är inte den som bara knyter handen i fickan. Hennes initiativ Algorithmic Justice League samlar in kunskap om och belyser brister i de olika kodbibliotek som finns. Dessutom kan man som kodare få hjälp att undvika att skriva diskriminerande kod.

 

Baxter lär sig rätt och fel genom att läsa dina tankar

Roboten Baxter läser dina tankar för att veta om han gör rätt eller fel. Allt eftersom så lär han sig.

Härom dagen skrev jag att prat är framtidens användargränssnitt. Jo, röststyrning blir nog norm i den nära framtiden. Men bli inte förvånad om du på sikt kommer att styra dina maskiner med tanken.

Videon ovan är inte lika bra som videon på artikelsidan i Wired: Baxter the Robot Fixes Its Mistakes by Reading Your Mind. Titta på den istället!

Eller läs forskningsrapporten från MIT!

 

Prat är framtidens användargränssnitt

Att kunna prata med maskinerna är inget nytt, men området växer och växer. ”I bakgrunden finns stora framsteg inom språkigenkänning kombinerat med minst lika stora inom AI-teknik, maskininlärning, kognitiva system och neurala nätverk. Plötsligt har det blivit möjligt att ha hyfsat naturliga konversationer med en dator” skriver Computer Sweden som rapporterar från Mobile World Congress.

Se även mitt tidigare blogginlägg om att prata med datorer – med ett Star Trek-klipp.

Är konversationen nästa stora gränssnittssteg? AI-drivna lösningar kan radikalt förändra hur vi interagerar med teknik och rentav med omvärlden. På gott – och på ont. ”Jag uppmanar alla att bli medvetna om det här området”, säger Rob High, cto på IBM:s Watson.

Source: Att prata med datorn kommer att förändra mer än vi tror – bottar överallt på MWC – Computer Sweden

Maskiner med poker face

Alfapet, schack, Jeopardy, Go – och nu poker! Maskinerna vinner över de bästa människorna. AI:n Libratus har nyligen vunnit över professionella Texas Hold’em-mästare, vilket är ännu ett genombrott.

Michael Wellman, professor i spelteori vid University of Michigan, menar att den spelteori som används i Libratus, även kan användas vid finanshandel, auktioner och politisk medling.

En fördel för maskinerna torde väl vara att de har lätt att hålla sitt poker face.

Another game just fell to the machines.

Source: A Mystery AI Just Crushed the Best Human Players at Poker | WIRED

Virus får liv

En ständigt närvarande fundering som jag har när det gäller artificiell intelligens är hurvida utvecklingen kan vara ett hot mot människan, om maskinerna tar över, skapar ett Skynet och utplånar eller förslavar människan. Frågan är för mig till stor del filosofisk och inspirerad av dystopiska science fiction-filmer.

Men det finns ett mycket mer reellt och sannolikt hot: hur kommer artificiell intelligens och maskininlärning att användas i kombination med dataintrång och skadlig kod? Den här artikeln handlar om det.

Source: Snart slåss maskinerna med varandra i cyberkriget – utan mänsklig inblandning – IDG.se

Danica Kragić Jensfelt är svensk robotforskare tillika sommarpratare

När hösten är som mörkast och kalla vindar blåser i världspolitiken, varför inte drömma sig tillbaks till den ljuva sommaren med ett av de mest intressanta sommarprogrammen från i år!

Danica Kragić Jensfelt utbildade sig till maskiningenjör i Kroatien, men hamnade i Sverige och forskar i robotik på KTH.

Hon nämner två saker som driver henne att ta fram robotar som kan hjälpa människor med olika sysslor: hennes tidigare städjobb som nyinflyttad till Sverige – hon vill fortsätta utveckla maskiner som kan ta över de tråkigaste och mest enformiga jobben – samt hennes son som är svårt funktionsnedsatt och behöver ständig tillsyn – tänk att ha en robot som kan lära sig av människor om hur man på ett empatiskt sätt kan ta hand om och hjälpa människor. Det skulle inte ersätta, men bli en avlastning för henne själv som mamma.

Danica Kragić Jensfelt beskriver också hur svårt det egentligen är för en robot att göra vardagssysslor. Jämför att spela schack med att bädda en säng. Schack har en liten uppsättning väl definierade regler som är lätt för en maskin att lära sig. Men att bädda en säng: för det första, hur lär jag roboten att hitta till sovrummet, att identifiera en säng, att leta rätt på sängkläderna och sedan med sin begränsade motorik lägga lakanen rätt och slätt.

Även den intressanta frågan om gränsen mellan människa och maskin tar hon upp: hur många delar av min kropp – och vilka – kan jag byta ut och fortfarande vara en människa?

När ska en robot säga nej till husse?

Ska en robot kunna säga nej till en instruktion som den får från en människa? Intuitivt kanske man svarar nej på den frågan – självklart ska människor vara robotarnas överordnade. Men om roboten är instruerad att göra något som skadar den själv, eller någon annan människa då?

Titta på den här intressanta videon!

Maskiner och moral

Om jag säger att maskiner styr över våra liv, kanske du tycker att det låter som hämtat från en dystopisk science fiction-film. Men numera skapar vi artificiella intelligenser som kör bilar, och som därmed kan hamna i situationer där de bestämmer vilken av två människor som den ska köra på.

Algoritmer bestämmer också om vi ska få ta del av den ena eller andra nyheten eller vilka vänners statusuppdateringar som ska visas i vårt flöde.

När vi matar våra maskininlärningsalgoritmer med data, som i sig inte är neutrala, kan vi inte vänta oss att maskinernas output ska vara objektiv. Jag har skrivit om det förr i Maskinerna ärver våra fördomar.

Maskininlärning kan ge oss väldigt mycket hjälp att ta beslut men vi ska inte, menar Zeynep Tufekci, luras att tro att det ger oss mer objektiva beslut. Etiska aspekter och värderingar blir viktigare än någonsin.

Maskinerna börjar tala vårt språk, istället för att vi ska behöva tala deras

Det är en tydlig trend, och det går snabbt framåt. Maskinerna börjar mer och mer förstå och lära sig använda vårt språk för att kommunicera med oss, i stället för att vi måste lära oss deras.

När vi gick ifrån att måsta kunna instruera via en kommandorad till att förstå metaforer som ikoner, fönster, rullgardiner och pilar, blev maskinerna mycket mer tillgängliga för den breda massan. Men fortfarande är det vi människor som måste lära oss maskinernas språk.

Nu sker en revolutionerande förändring: de digitala assistenterna har gjort entré: Alexa, Siri, Cortana, Google Now och M, med flera. De har redan varit med oss ett tag, men de utvecklas ständigt. Dessutom blir de bättre och bättre på att förstå oss ju mer vi låter dem umgås med oss – för då kan de samla in data om oss, om våra vanor och preferenser.

Det är inte jättenytt:

  • För många år sedan utvärderade jag röststyrningsprogram för PC – mest för att jag fick ont i axlar och armar av att sitta med tangentbord och mus. Programmen var jobbiga att komma igång med, eftersom de – liksom nu – behövde tränas mycket innan de gjorde någon större nytta.
  • När SJ:s röststyrda tjänst kom, var det kul att (gratis) busringa till den, och bara prata smörja. Rösten svarade med att tålmodigt fråga: ”Menade du … Skövde?”
  • För några år sedan började myndigheter med flera byta ut sina snåriga tonvalssystem mot assistenter som skulle försöka tolka vad jag ville: ”Här beskriver du ditt ärende”. Jag har ännu inte riktigt vant mig utan blir lätt arg när den inte förstår, och när jag börjar fräsa åt den stackars maskinen som får agera grindvakt mellan mig och Skatteverkets mänskliga personal, och kalla den idiot, så brukar den ofta ge med sig och koppla mig till en handläggare.

Skillnaden med de nya assistenterna är bättre AI. Men en avgörande skillnad är också all data de samlar in, om världen omkring mig – och om mig.

Som jag var inne på tidigare, en AI måste tränas, och för att kunna ge ”personlig service” måste den tränas på mig, mina vanor och mina preferenser. Därför vill också leverantörerna att assistenten ska vara med mig i så många av vardagens situationer som möjligt och så stor del av dygnet – av livet – som möjligt.

Så även om dessa tjänster är gratis, så är det till priset av din integritet. Din assistent vill att bli din förtrogna som får veta allt om dig. Snart vet assistenten mer om dig än vad dina närmaste vet, kanske mer än vad du själv vet. Vem på andra sidan har tillgång till dessa högst personliga, dessa intima, kunskaper? Vad kommer de att användas till mer? Vem kommer i framtiden att ha tillgång till dem?

The increasingly conversational nature of your back-and-forth with your devices will make your relationship to technology even more intimate, more loyal, more personal.

Source: We’re on the Brink of a Revolution in Crazy-Smart Digital Assistants | WIRED