Svärmar av robotinsekter

Hated In The Nation – Black Mirror

TV-serien Black Mirror har rekommenderats mig, och egentligen är det konstigt att jag inte har upptäckt den tidigare. Hated in the Nation är det sista avsnittet i säsong tre, och handlar om robotbin.

Svärmar av robotbin har ersatt de nu utdöda biologiska bina, och står för pollinering av blommor. Men för att få lite extra nytta av dem, har myndigheterna sett till att de dessutom hjälper till med att övervaka befolkningen, med hjälp av bland annat ansiktsigenkänning. Detta visar sig vara ödesdigert när bina till slut hackas.

Jag ska inte spoila mer av avsnittet, men istället prata lite om svärmteknik. Robotar som samarbetar i svärmar är verklighet. Jag har skrivit om det tidigare i inlägget Om du hör något i luften som surrar, så är det nog Pentagons drönarsvärm. Här är en annan kort och koncis filmsnutt om svärmar:

Flygkunniga och väldigt små robotar i insektsutförande är inte heller science fiction. Det finns många exempel på det, men jag väljer att visa det här som har så mycket som tio år på nacken. Tänk er bara vad som har hunnit hända sedan dess.

Läskigt, kanske du tänker. Åtminstone om du är lite som jag. Tekniken kan som alltid användas till både ont och gott, och som sensmoralen i Hated in the Nation läser jag som att även det som har de bästa av intentioner kan missbrukas.

Får du lust att ta över världen med hjälp av insektsrobotar? I så fall får du här ett praktiskt tips om hur du kommer igång:

Filmtips: Transcendence (2014)

Transcendence är en välgjord film från 2014 som på ett bra sätt illustrerar de faror som många oroar sig för när det gäller artificiell intelligens. Vad händer om en maskin blir smartare och mäktigare än människan? Vilka mål kommer den att eftersträva?

Vissa forskare och tänkare inom maskinintelligens menar att för att undvika en kamp människa mot maskin, bör vi integrera oss med tekniken – eller integrera tekniken i oss. Det är vad som händer i Transcendence. Men då ställs också frågan: vore vi då fortfarande vi?

Den klassiska frågan om en maskin kan vara självmedveten tas också upp i filmen.

Transcendence

 

Two leading computer scientists work toward their goal of Technological Singularity, as a radical anti-technology organization fights to prevent them from creating a world where computers can transcend the abilities of the human brain.

 

Rasistmaskinerna anfaller

När vi lär upp våra maskiner, är risken stor att vi även lär dem våra fördomar – ja det kanske till och med är oundvikligt.

Maskininlärning går ut på att mata en maskin med en stora volymer av data, och utifrån denna data dra slutsatser eller göra förutsägelser. Men om datat är snedvriden – på grund av att vår värld är det – så bibehålls denna snedvridning i systemet.

Bilden har ingenting med Svartbäcken att göra. Inte ens med Gottsunda.Ett exempel:  Låt säga att polisens AI som förutsäger brottsplatser, ”vis av erfarenheten” säger att den största sannolikheten är att brott kommer att ske i Gottsunda, så kommer polisen att leta noggrannare efter brottslingar där än i Svartbäcken. De tillslag som görs, adderas till systemets data, och systemet har då anledning att göra ännu starkare förutsägelser om att brott kommer att begås i Gottsunda.

Jag har skrivit om det här tidigare men denna artikel sammanfattar och redogör ytterligare.

 

Källa: Rise of the racist robots – how AI is learning all our worst impulses | Inequality | The Guardian

Hur AI förstärker vårt minne, våra arbeten och sociala liv.

Fråga inte hur smarta vi kan göra våra maskiner. Fråga hur smarta våra maskiner kan göra oss! Tom Gruber, som har varit med att skapa Siri, vill skapa ”humanistisk artificiell intelligens” som förstärker och samarbetar med människan istället för att konkurrera med eller ersätta människan.

Tanken är att människa och maskin kompletterar varandra och det är i samarbetet som vi blir överlägsna.

Han menar att artificiell intelligens kan hjälpa oss bli övermänskliga i uppfattning, kreativitet och kognitiv funktion; tänk dig att du skulle kunna komma ihåg allt du någonsin har läst, och namnet på alla du någonsin har träffat!

Vi är en god bit på väg dit. Verktyg som vi redan idag har börjat ta för givna, visar att vi går i den riktningen.

Men glömmer han inte något? De som skapar dessa verktyg är inga välgörenhetsinrättningar. Hur ska de ta betalt för sina verktyg? Ja, om det kommer att fungera i framtiden som det gör idag, kan vi nog tänka oss att om Google får tillgång till våra minnen, kommer de säkerligen att peta in ”annonser” i form av minnen som säger oss att den eller den produkten måste vi nog köpa.

Vi har redan förletts att sälja ut vår integritet väldigt billigt via sociala medier och olika  digitala tjänster. Om vi inte hittar en annan väg in i detta, kan vi känna oss fett ägda.

 

Filmtips: 2001: A Space Odyssey (1968)

En Stanley Kubrick-klassiker från 1968 som varje AI-nörd måste se. Ett antal astronauter är ute på ett uppdrag. Alla utom två är nedsövda, och de två vakna ska se till att skeppet når sin destination. Till sin hjälp har de HAL 9000, AI:n som håller koll på allt på skeppet, inklusive astronauternas hälsa och välmåga.

Men vad händer när det uppstår en intressekonflikt mellan människa och maskin? När HAL inte kan tillåta att den mänskliga faktorn äventyrar uppdraget?

Directed by Stanley Kubrick. With Keir Dullea, Gary Lockwood, William Sylvester, Daniel Richter. Humanity finds a mysterious, obviously artificial object buried beneath the Lunar surface and, with the intelligent computer H.A.L. 9000, sets off on a quest.

Source: 2001: A Space Odyssey (1968) – IMDb

Hur stoppar vi robotupproret?

Om vi utvecklar maskiner som är smartare än människor, kan de då utgöra ett hot mot oss själva? Kan vi inte bara se till att ha en stor stoppknapp som vi kan trycka på om hoten tornar upp sig? Här förklaras stoppknappsproblematiken (tack för tipset, K.L.!).

I och med teknikutvecklingen är frågan relevant att fundera över, men problemställningen är inte ny: redan på 40-talet formulerade science fiction-författaren Isaac Asimov robotikens tre lagar:

  1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
  2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
  3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Som en parentes kan nämnas att Randall Munroe har funderat kring varför Asimov lagar kommer i den ordning de gör:

The Three Laws of Robotics – XKCD

Men de tre robotlagarna fungerar inte, menar många. Inte så konstigt: de är en science fiction-författares idé och inte något som en AI-forskare har tänkt ut. Dessutom är de från en tid långt innan det fanns AI och robotar på det sätt som det finns idag.

Här förklaras varför robotlagarna inte går att implementera:

Andra verkar inte tycka att det är något större problem: bygg in ett chip i robotarnas hjärna med vilket du kan stänga av dem:

Ett ofta återkommande förslag på lösning är att vi måste bygga in våra värderingar, vår moral, i våra maskiner. Dr Daniel Glaser är en i raden och här kan du läsa hans kolumn i The Guardian: Teaching morality to robots.

Ett längre resonemang av Daniel Glaser kring samma sak kan du höra i det här podavsnittet.

Läs också min tidigare post om Nick Boström.

Maskinerna är våra vänner

Vad ska vi göra med den tid och energi som vi får över i och med automatiseringen? Ska vi ta oss mer tid till vetenskap, kärlek och kultur? Eller ska vi till varje pris försöka skapa oss mera arbete, även fast maskinerna överträffar oss i både nogrannhet och effektivitet?

Det är såklart inte bara Kraftwerk som skriver låtar om maskiner. Kjell Höglund menar att maskinerna är våra vänner, för de kan skapa oss vårt paradis:

Du ska inte längre slita
i ditt anletes svett
du ska ägna dig åt vetenskap och konst

Du ska inte längre släpa
på Sisyfos sätt
du ska ägna dig åt kärlek och kultur

 

 

Automatiserad diskriminering

Som jag skrivit tidigare när det gäller ansiktsigenkänning, så tycker jag det är läskigt. Jag skulle vara ganska nöjd med om mitt ansikte aldrig kändes igen.

Men när ansiktsigenkänningsprogrammet inte uppfattar Joys ansikte som ett ansikte, medan det uppfattar en vit mask som ett ansikte – ja då är det lätt att inse att någon har gjort fel.

Och det är ett allvarligt fel, eftersom det innebär en snedvridning som påverkar redan utsatta grupper negativt, och som dessutom sprider sig snabbt över värden – lika snabbt som du laddar ned källkoden.

– Vem som kodar, hur vi kodar och varför vi kodar spelar roll, säger Joy Buolamwini.

Tidigare har jag skrivit om hur lätt det är att vi bygger in våra fördomar i de maskiner vi skapar.

Men Joy är inte den som bara knyter handen i fickan. Hennes initiativ Algorithmic Justice League samlar in kunskap om och belyser brister i de olika kodbibliotek som finns. Dessutom kan man som kodare få hjälp att undvika att skriva diskriminerande kod.

 

Den oanvändbara klassen?

Vad händer med oss människor när maskinerna blir bättre än oss på det vi jobbar med? För Yuval Noah Harari utesluter att att det skulle vara en naturlag att i takt med att maskinerna börjar kunna göra våra jobb, skapas nya jobb och yrkesgrupper.

Han gör också gällande att även vi människor i slutändan inte är annat än avancerade algoritmer – kolbaserade eller kiselbaserade – vilken skillnad skulle det göra?

Kommer alla tillgångar och all makt till slut att hamna hos de fåtal människor som äger de vassaste algoritmerna? Eller kommer maskinerna att ta över makten? Eller kan vi hitta ett annat sätt att organisera vårt samhälle, där maskinen fortsätter vara människans tjänare.

Här följer ett utdrag från boken ”Homo Deus – a brief history of tomorrow” med rubriken The rise of the useless class.

Historian Yuval Noah Harari makes a bracing prediction: just as mass industrialization created the working class, the AI revolution will create a new unworking class.

Source: The rise of the useless class |

Etik och teknik

Vem har ansvaret om en självkörande bil dödar någon, eller om ett beslutsystem inom vården tar fel beslut? Vilket ansvar har utvecklare för de eventuella normer och värderingar som teknik skapar eller befäster?

Genom teknikutvecklingen skapas många etiska frågor som vi bör ha med oss. Men tyvärr saknas det samtalet ofta – kanske för att utvecklingen går så fort.

– Reflektion kan inte skyndas fram, säger Jessica Nihlén Fahlquist, filosof som forskar kring tekniketik, och som undervisar Centrum för bioetik och forskning i Uppsala till Computer Sweden.

– Att problematisera genom att ta upp etiska frågor kring teknik kan misstolkas som teknikfientlighet, säger Jessica Nihlén Fahlquist.

Ett annat område som jag själv saknar samtal kring är den detaljerade kartläggning av våra vanor och vårt privatliv som stora företag gör. När jag nyligen på ett seminarium om Google Analytics tog upp frågan om personlig integritet, blev svaret nästan reflexmässigt något om ”foliehattar”. Det är sorgligt om vi utvecklare inte har en djupare analys än så kring teknik som så drastiskt förändrar vårt samhälle.

Donald Trump har sagt att fokus kommer att ligga på nedskärningar när han lägger fram den federala budgeten – något som också väntas påverka utgifterna inom it.

Source: Filosofen: Vi måste tala mer etik och teknik – Computer Sweden

Filmtips: I, Robot (2004)

Filmen ”I, Robot” från 2004 är löst byggd på Isaac Asimovs samling av science fiction-noveller med samma namn.

Robotarna har Isaac Asimovs robotlagar hårdkodade i sig:

1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Filmen innehåller utöver det flera härliga ingredienser när det gäller robotberättelser: maskiner som har känslor och drömmar, maskiner som gör uppror och tar makten över människan, men också maskiner som har medkänsla för människan.

Sevärd!

I, Robot från 2004

Danica Kragić Jensfelt är svensk robotforskare tillika sommarpratare

När hösten är som mörkast och kalla vindar blåser i världspolitiken, varför inte drömma sig tillbaks till den ljuva sommaren med ett av de mest intressanta sommarprogrammen från i år!

Danica Kragić Jensfelt utbildade sig till maskiningenjör i Kroatien, men hamnade i Sverige och forskar i robotik på KTH.

Hon nämner två saker som driver henne att ta fram robotar som kan hjälpa människor med olika sysslor: hennes tidigare städjobb som nyinflyttad till Sverige – hon vill fortsätta utveckla maskiner som kan ta över de tråkigaste och mest enformiga jobben – samt hennes son som är svårt funktionsnedsatt och behöver ständig tillsyn – tänk att ha en robot som kan lära sig av människor om hur man på ett empatiskt sätt kan ta hand om och hjälpa människor. Det skulle inte ersätta, men bli en avlastning för henne själv som mamma.

Danica Kragić Jensfelt beskriver också hur svårt det egentligen är för en robot att göra vardagssysslor. Jämför att spela schack med att bädda en säng. Schack har en liten uppsättning väl definierade regler som är lätt för en maskin att lära sig. Men att bädda en säng: för det första, hur lär jag roboten att hitta till sovrummet, att identifiera en säng, att leta rätt på sängkläderna och sedan med sin begränsade motorik lägga lakanen rätt och slätt.

Även den intressanta frågan om gränsen mellan människa och maskin tar hon upp: hur många delar av min kropp – och vilka – kan jag byta ut och fortfarande vara en människa?

När ska en robot säga nej till husse?

Ska en robot kunna säga nej till en instruktion som den får från en människa? Intuitivt kanske man svarar nej på den frågan – självklart ska människor vara robotarnas överordnade. Men om roboten är instruerad att göra något som skadar den själv, eller någon annan människa då?

Titta på den här intressanta videon!

Maskiner och moral

Om jag säger att maskiner styr över våra liv, kanske du tycker att det låter som hämtat från en dystopisk science fiction-film. Men numera skapar vi artificiella intelligenser som kör bilar, och som därmed kan hamna i situationer där de bestämmer vilken av två människor som den ska köra på.

Algoritmer bestämmer också om vi ska få ta del av den ena eller andra nyheten eller vilka vänners statusuppdateringar som ska visas i vårt flöde.

När vi matar våra maskininlärningsalgoritmer med data, som i sig inte är neutrala, kan vi inte vänta oss att maskinernas output ska vara objektiv. Jag har skrivit om det förr i Maskinerna ärver våra fördomar.

Maskininlärning kan ge oss väldigt mycket hjälp att ta beslut men vi ska inte, menar Zeynep Tufekci, luras att tro att det ger oss mer objektiva beslut. Etiska aspekter och värderingar blir viktigare än någonsin.

Maskinerna ärver våra fördomar

Jag skrev härom veckan om risken att vi smittar maskinerna med våra fördomar som finns inbyggda i våra språk.

Här är några fler exempel från forskningen på hur vi riskerar att föra över våra fördomar till våra AI. Googles foto-app klassificerade bilder på svarta som gorillor. Nikons kamera-mjukvara påstod att personen blinkade på bilden när det var ett foto på en asiat. Polisens system diskriminerade svarta. Jobbannonser om höglönejobb presenterades mer sällan för kvinnor än för män.

Our world is increasingly shaped by biased algorithms that have been built with little oversight.

Source: Artificial Intelligence’s White Guy Problem – The New York Times

När människan släpper kontrollen och låter maskinen ta beslut

När vi tränar maskiner för att ta beslut åt oss kan det gå fel, och vems fel är det då? I det här exemplet handlar det om Facebook, som låter maskinerna vara med och ta publicistiska beslut.

När en tidningsredaktion beslutar om hurvida till exempel en bild ska publiceras eller inte, finns det en redaktion bestående av människor som resonerar om argument för och mot. I fallet Facebook (som tar mer och mer publicistisk makt från våra traditionella massmedier) är det en  enligt artikeln en kombination av upplärda maskiner och människor som tar besluten.

Det är en högst förståelig konstruktion: med Facebooks regler om att hat, våld och nakenhet inte får förekomma skulle det behövas en oerhört stor redaktion för att granska de miljarder inlägg som görs. Därför är det självklart att ha maskiner som i stora volymer kan sortera bort det värsta. Men den för naturligtvis med sig problem. När maskinerna ska stå för besluten i de mer tveksamma fallen blir det farligt.

(Vidare är det ett problem om hela världen ska påtvingas amerikansk moral, och amerikanska värderingar gällande var gränserna går. Facebooks förbjudande av bilder på kvinnor som ammar och män som kysser varandra kan knappast bara skyllas på maskiner.)

Facebook will make mistakes. But it should at least show us why the mistakes are made.

Source: Norway Is Right to Be Pissed at Facebook Over Photo Censorship | WIRED

När maskiner lär sig våra språk, lär de sig också våra fördomar

I och med att våra språk i sig innehåller fördomar, överförs de till maskiner när man använder språken som exempel i maskininlärning. Det har forskare vid Princetons universitet kommit fram till. Man kan se det som att maskinerna lätt smittas av människans tillkortakommanden.

Source: When computers learn human languages, they also learn human prejudices