Okej, så vad är stoppknappsproblematiken? Jo, när vi väl har skapat en robot som är smartare än oss själva, är risken att den vill något annat än vad vi vill. Då vill vi att det ska finnas en stoppknapp på den, så att vi kan hindra den från att göra något stort fel, till exempel utrota mänskligheten.
Men eftersom den är smartare än oss och mer kapabel, är risken att den hindrar oss från att trycka på stoppknappen. Det är stoppknappsproblematiken, och du kan lära dig om den här.
Vi måste få våra maskiner att vilja samma sak som vi. Vi måste bygga in våra värderingar i dem. Den stora frågan är hur vi gör det.
Rob Miles funderar över en möjlig lösning hed hjälp av en teknik som kallas Cooperative Inverse Reinforcement Learning.
Reinforcement learning innebär en sorts learning by doing: maskinen provar olika saker slumpmässigt och får poäng enligt ett regelverk. Den utvärdera sina försök mot vad den får för poäng och lär sig därigenom att göra rätt. Exempel på det är den här roboten som lär sig att ta sig framåt eller den här maskinen som lär sig att programmera. Filmen förklarar ganska bra vad det innebär.
Inverse reinforcement learning innebär att i stället för att maskinen provar sig fram och får poäng, så iakttar den en expert och utvärderar hur den gör och vilka poäng den får. Filmen presenterar några problem som finns med den tekniken.
Cooperative inverse reinforcement learning innebär ett samarbete mellan människa och maskin i inlärningen. Mer om det i filmen!