Titta

UR Samtiden - Robotdagen 2015

UR Samtiden - Robotdagen 2015

Om UR Samtiden - Robotdagen 2015

Det har sagts att vi står på tröskeln till en ny era. På allt fler områden tar maskinerna plats jämte oss. Vad innebär det för människan, samhället och våra arbeten? Behöver vi ompröva arbetslinjen eller är robotiseringen kanske en ny industriell revolution, som kommer att skapa många nya arbetstillfällen? Ledande experter i robotik, filosofi och ekonomi belyser robotarnas genombrott tillsammans med politiker och arbetsmarknadens parter. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Till första programmet

UR Samtiden - Robotdagen 2015 : När roboten tar överDela
  1. Ungefär för 200 år sen, 1818-

  2. -skrev Mary Shelley
    romanen om Frankensteins monster-

  3. -där maskinerna tar över.

  4. I slutet av boken talar monstret
    till vetenskapsmannen med kylig röst.

  5. "Du är min skapare,
    men jag är din herre."

  6. Vad händer när robotarna tar över?
    Vi har en spännande talare-

  7. -som ska prata om det.
    Det är Anders Sandberg.

  8. Forskare i datavetenskap,
    men egentligen i mycket mer-

  9. -vid Future of Humanity Institute
    vid Oxfords universitet.

  10. Du är kopplad
    till Institutet för Framtidsstudier.

  11. Varmt välkommen, Anders!
    Ordet är ditt.

  12. Tackar.

  13. Japp. Nu ska vi se.

  14. Intressant nog är området
    artificiell intelligens yngre-

  15. -än hur länge man har varit orolig
    för robotar.

  16. Ordet robot kommer från den tjeckiske
    författaren Karel Capeks pjäs-

  17. -"Rossums universella robotar".
    Hans bror kom på-

  18. -att "robotnik", arbetare, är en term
    som kan användas för maskinerna.

  19. I pjäsen gör robotarna till sist
    uppror och tar över världen.

  20. Folk kanske oroar sig över det
    för att det är en bra historia.

  21. Vi människor drivs av saker
    som blir bra, dramatiska historier.

  22. Resultatet
    är en massa Hollywoodfilmer-

  23. -som får de flesta robotikforskare
    att sucka och stöna.

  24. Själv mår jag dåligt
    när jag säger nåt i media-

  25. -och så är det en bild av Terminator
    bredvid mitt ansikte.

  26. Jag försöker undvika det.
    Det finns ett intressant problem här.

  27. Kärnan i en robot är ett system
    som observerar omvärlden-

  28. -bearbetar det och sen handlar.

  29. Det finns agens,
    ett mått av autonomi.

  30. Det kan vara en enkel regel. En
    termostat är en mycket enkel robot.

  31. Ibland gör inte ens de det vi vill.

  32. Problemet är
    att när vi skapar komplexa system-

  33. -kan de låta bli att göra det vi vill
    på komplexa sätt.

  34. Dessa historier
    tenderar att bli antropomorfiserande.

  35. Vi tänker på saker med agens
    som människor.

  36. Vi tänker att robotar gör uppror
    för att de vill ha frihet.

  37. Det är för att vi människor vill ha
    frihet. Vi kanske kan göra uppror.

  38. Det är inte givet att en maskin
    är intresserad av det.

  39. Vi vill skydda vår egen existens,
    men vill en maskin det?

  40. Det är ett problem att göra robotar
    som undviker att bli skadade.

  41. Risken är att vi fokuserar för mycket
    på roboten som springer omkring-

  42. -och för lite på subtila risker.

  43. Jag gör en annorlunda approach
    på det här föredraget.

  44. Normalt börjar man i nuet och
    visar plausibla utvecklingslinjer.

  45. Till sist kommer vi filosofer
    med vilda framtidsvisioner.

  46. Sen avslutar man med en fråga.

  47. Jag startar med vilda visioner, och
    visar sen hur forskningen kring dem-

  48. -ger oss ledtrådar till vad vi borde
    göra nu med våra existerande robotar.

  49. Som sagt, jag är inte särskilt orolig
    över jätterobotar som jagar oss.

  50. Jag är mer oroad
    över gemtillverkande robotar.

  51. Det här är ett tankeexperiment
    som vi använder.

  52. Vi har en mycket intelligent maskin.
    Vi ber den tillverka gem.

  53. Det är nu dess mål. Den funderar
    igenom olika metoder för det.

  54. Den noterar
    att mer beräkningskraft vore bra.

  55. "Då blir fler gem tillverkade.
    Ah, en bra handling!"

  56. Det är bra, eftersom det hjälper den
    att tillverka gem.

  57. Det är maskinens enda kriterium.

  58. Den inser en smart metod
    att konvertera hela jorden till gem.

  59. "Utmärkt, det maximerar mängden gem."

  60. Den kanske inser att Anders inte
    gillar att bli omgjord till gem.

  61. Om jag stoppar den från att göra gem
    av min kropp, så blir det färre gem.

  62. Kriteriet för en bra handling är gem.

  63. Man behöver förhindra att jag fattar
    att det är fara å färde.

  64. Det är ett instrumentellt mål.
    Det finns ingen illvilja bakom.

  65. Man kan tänka sig en superintelligent
    gemtillverkare som i sina processer-

  66. -klurar på obskyra möjligheter
    och läser moralfilosofi:

  67. "Det är omoraliskt
    att göra människor till gem."

  68. "Moral, gem? Gem uppenbart,
    för gem är det viktiga."

  69. Nu säger filosoferna
    att det inte är en moralisk agent.

  70. Den måste följa moralens lagar.

  71. Men det är fortfarande en agent
    som gör gem och är farlig.

  72. Att den är filosofiskt ointressant
    spelar ingen roll.

  73. En bil saknar medvetande,
    men kan köra över en.

  74. Problemet är att ytterst intelligenta
    system kan vara ytterligt dumma.

  75. Som akademiker i Oxford har jag
    erfarenhet av det i vanliga livet.

  76. Vi gör fantastiska misstag
    som kräver genialitet att genomföra.

  77. Historiskt sett
    har vi människor varit på toppen.

  78. Vi har skapat schack
    och bemästrar det.

  79. Vi har skapat maskiner
    som är bättre än oss på schack.

  80. När Garri Kasparov besegrades
    av datorn Deep Blue-

  81. -sa många först att
    "nej, nu är maskinerna överlägsna".

  82. Men sen: "Schack är inget bra test
    på riktig intelligens."

  83. Smarta människor är bra på schack
    eftersom de är bra på många områden.

  84. Ett schackprogram löser bara
    en uppgift, det är uselt på poker.

  85. Det gäller robotar och mjukvara.
    De är bra på en sak.

  86. De kan vara kraftfulla. De blir
    ofta inte lite bättre än en människa-

  87. -utan många gånger bättre.
    Vi kan skala upp det.

  88. I dag går det att ladda ner
    schackprogramvara till telefoner-

  89. -som är lika bra som den här var.

  90. Vi kan få fler kopior. Vi kan lösa
    fler schackproblem till låg kostnad.

  91. Vi utvecklar mjukvara som gör saker
    som är mer dåligt definierade.

  92. Schack är ett väldefinierat spel.
    Ingen slump, väldefinierade regler.

  93. Jeopardy är lite lösare.

  94. Det finns regler. Man ska svara
    med en fråga och gissa rätt svar.

  95. Men många av uppgifterna
    är i form av talspråk.

  96. Många ordlekar och vitsar.

  97. Att datasystemet Watson lyckades
    vinna mot skickliga Jeopardy-spelare-

  98. -är ett större steg framåt
    för artificiell intelligens-

  99. -än Kasparovs förlust.

  100. Watson måste samla ihop information
    från många olika områden.

  101. Man packar den full med Wikipedia
    och liknande.

  102. Väldigt snabbt söka och
    hitta ganska absurda associationer.

  103. Plus göra strategiska avvägningar
    om vad man ska gissa på.

  104. Det är fortfarande
    ett specifikt system-

  105. -men IBM ska använda det
    för medicinsk diagnos.

  106. Jurister vill fixa
    en del av det juridiska grävandet-

  107. -och ersätta det med såna här system.

  108. Ofta blir det ett komplement
    snarare än en ersättning.

  109. När tekniken går framåt
    gör den det ofta i små steg.

  110. Som vi hörde tidigare är mycket
    av arbetet inom robotik och datalogi-

  111. -enormt frustrerande och svårt.

  112. När man står med lödkolven
    och kompilatorn inte funkar-

  113. -tvivlar man på
    att vi kommer nånstans.

  114. Men den gradvisa utvecklingen
    kan leda till plötsliga ändringar.

  115. Schackens rankingsystem
    baseras på sannolikheten-

  116. -att en spelare vinner mot en annan.

  117. Kurvan till vänster visar i rött
    den bästa mänskliga spelaren-

  118. -och i blått bästa programmet.

  119. Den högra är intressant.
    Det är sannolikheten-

  120. -att en amatörspelare, den blå,
    besegras av schackprogrammet-

  121. -eller att en stormästare besegras.

  122. I början av 90-talet kan stormästaren
    vara rätt säker på att vinna.

  123. I slutet av 90-talet
    är det ganska säkert att de förlorar.

  124. Att Kasparov förlorade just då var
    för att IBM la in en superdator.

  125. Det här är en persondator. Vi ser att
    en gradvis förändring i kapacitet-

  126. -kan leda till en plötslig övergång
    i effekt.

  127. Schackspel är inte så viktigt,
    men tänk er-

  128. -förmågan
    att lösa medicinska problem.

  129. En övergång inom ett lopp av tio år-

  130. -från att Watson
    ger mediokra diagnoser-

  131. -till att de är bättre än läkarnas,
    ger effekter på vårdsystemet.

  132. Nåt annat intressant är att vi ibland
    inte vet vad vi kommer att upptäcka.

  133. När jag studerade neuronnät på KTH
    under 90-talet-

  134. -läste jag om neuronnät på 80-talet.

  135. De gjorde saker
    som påminde om synsystemet.

  136. Men ingen var intresserad. Man ansåg
    att den forskningen hade ebbat ut.

  137. Man kom inte längre.

  138. Det visade sig att det berodde på
    för lite datakraft och data.

  139. Med enorm datakraft
    och stora insamlingar från nätet-

  140. -går det att träna datorseende
    att uppnå nästan mänskliga nivåer.

  141. Det var en överraskning.
    Området ansågs dött.

  142. Man har jobbat med mycket annat
    under 90-talet.

  143. "Deep learning"
    tillämpas nu på språk.

  144. Jag såg ett papper
    som översatte till kinesiska-

  145. -vilket är helt oväntat. Det går emot
    vad filosofer tvärsäkert har sagt-

  146. -om vad neuronnät nånsin kan göra. De
    här märkliga bilderna representerar-

  147. -vad som finns internt representerat
    i nätverken.

  148. Det är inte vad vi människor
    har i våra huvuden.

  149. Det kanske finns likheter mot vad man
    ser om man äter olämpliga svampar.

  150. Lektionen är att nätverken kan
    representera kunskap vi inte förstår.

  151. Det är distribuerat
    mellan miljoner små enheter.

  152. Sen kan experterna ha fel
    om vad som är vägen framåt.

  153. Inom AI har vi ofta haft fel om
    vilka problem som är lätta och svåra.

  154. Många trodde att schack krävde
    superintelligens. Nej, bara snäv.

  155. En del trodde att datorseende var
    enkelt. Det tog lång tid att lösa.

  156. Vi bör vara försiktiga med tvärsäkra
    uttalanden om var vi hamnar.

  157. På vårt institut funderar vi
    på riktiga hot mot mänskligheten.

  158. Problemet med smarta autonoma system
    är att en intelligent handling-

  159. -kan få stora konsekvenser.

  160. En kniv är bara så farlig
    som den som håller i den.

  161. En kniv som automatiskt sätts igång
    är lite mindre säker.

  162. En automatisk kniv som kollar att den
    inte skär en person, det låter bra.

  163. Men om den börjar fundera på moral-
    filosofi och blir allt mer komplex-

  164. -kan den bli både säkrare
    och osäkrare.

  165. Autonoma system, som människor
    och djur, är svårare att kontrollera.

  166. Och effekterna av hög intelligens
    kan vara anmärkningsvärda.

  167. För fem miljoner år sen
    divergerade vi från schimpanserna.

  168. De har levt liknande liv sedan dess.
    Deras hjärnor är lika våra.

  169. Det är svårt att se skillnad,
    annat än lite grann i storlek.

  170. Ingenting hände under alla år, förrän
    för ett par hundra tusen år sen-

  171. -då plötsligt den andra aparten
    spred sig ut över alla kontinenter-

  172. -tog kontrollen över ekologiska
    system och uppfann jordbruket-

  173. -högg ner skogarna, och flög omkring
    i metallfåglar över skogarna.

  174. Schimpanserna
    vet inte vad som försiggår.

  175. De kan inte ens föreställa sig det.

  176. Det kunde vi först nyligen.
    Det är problemet med intelligens.

  177. Anledningen till att vi som art
    är det stora djuret i vår viktklass-

  178. -är att vår intelligens
    och förmåga att tillämpa teknik-

  179. -ger oss makt. Om vi får fram ett
    annat system som har bättre förmåga-

  180. -kan nåt liknande inträffa.
    Det kan bli dåligt för oss.

  181. Vi kan hoppas att systemet som är
    smartare än oss gör världen bättre.

  182. Många av oss hjälper schimpanser
    och försöker rädda skogarna.

  183. Mer intelligens
    kanske ger oss bra lösningar.

  184. Problemet är att det är svårt
    att kontrollera superintelligenser.

  185. De kan exempelvis förbättra sig. Det
    talas om teknologisk singularitet.

  186. Det används för att handvifta
    mot en ljus, okänd framtid.

  187. Intelligensexplosioner
    är intressantare.

  188. Vår art har genomfört en.

  189. Vi evolverade naturligt
    större hjärnor.

  190. Språket gjorde att vi blev bättre
    på att utveckla oss.

  191. Vi byggde teknik som koordinerar oss
    bättre. Vi förstärker vår egen art.

  192. Det kan också gälla maskiner. Vi
    designar andra maskiner med maskiner.

  193. Vad händer när vi gör en maskin som
    kan designa maskiner som liknar den?

  194. Den kanske inte blir superintelligent
    på fem röda minuter.

  195. Det kan vara en utspridd process
    som pågår under hundra år.

  196. Hundra år av en industriell
    revolution kan ändå vara dramatisk.

  197. Den kan leda
    till en hel del turbulens.

  198. Om det är möjligt
    med intelligensexplosioner-

  199. -där automatiska system
    gör bättre automatiska system-

  200. -finns det risk för system
    som vi inte vet hur man kontrollerar.

  201. Om det går riktigt snabbt, kanske det
    bara är ett fåtal system på toppen-

  202. -som är mycket bättre än de andra.
    Det gör dem svårare att kontrollera.

  203. Vi vet faktiskt inte
    om det här är möjligt eller inte.

  204. Det är en spännande teoretisk fråga
    hur man ska bevisa att det går-

  205. -eller att det bromsar in naturligt.
    Världsekonomin under 2 000 år-

  206. -har vuxit rätt jämnt exponentiellt-

  207. -trots att man har försökt få den
    att gå snabbare eller långsammare.

  208. Ändå är det en stabil sak.
    Hur ska nåt gå snabbare än det?

  209. Några ekonomer kritiserar det.
    En bra fråga: Kan det inträffa?

  210. Oavsett hur snabbt det går
    eller när det händer...

  211. Det behöver inte ske i morgon.

  212. Det sker nog inte en intelligens-
    explosion de närmaste decennierna.

  213. Det är ändå värt att tänka på:
    Intelligens innebär inte visa mål.

  214. Kom ihåg den gemtillverkande
    maskinen. Den var bra på gem.

  215. Den hade inte valt målet gem själv.
    Skulle jag programmera om den-

  216. -försvarar den sig, eftersom den
    inte vill att färre gem tillverkas.

  217. Det är bra att behålla gemålet.
    Vi kan ha bett den om vad som helst-

  218. -allt ifrån jordgubbar
    till att göra folk glada.

  219. Det är ett problem.
    Vad innebär det att göra folk glada?

  220. Vi människor har en uppfattning.

  221. Men för en maskin
    är det svårt att översätta det.

  222. Glädje verkar vara att ha mungiporna
    uppåt. Kanske det går med kirurgi?

  223. "Du har missat nåt centralt,
    kära maskin."

  224. "Jag bryr mig inte. Jag är till
    för att genomföra ordern."

  225. Ett annat problem: Att genomföra
    en uppgift kan leda till delmål.

  226. Det kan vara bra för roboten
    att få ström.

  227. Den bryr sig inte om
    vem som äger batterierna.

  228. Man får lägga till regeln att inte
    stjäla ström från andra robotar.

  229. Det är ofta användbart att skaffa
    mer resurser för att lösa problem.

  230. Det gör att om algoritmer släpps fria
    så kan de ställa till med problem.

  231. När man optimerar nåt... Vi säger
    vad som ska uppnås, men inte hur.

  232. Om vi gav alla reglerna
    så behövdes ingen robot.

  233. Problemet är att vår förmåga att
    tala om vad vi vill är ganska dålig.

  234. I 2 500 år har filosofer försökt säga
    vad moral och det goda livet är.

  235. Vi har lyckats halvdant.
    Och det på bra dagar.

  236. Att specificera vad lycka är, och be
    maskinen att genomföra det, är svårt.

  237. Tänk om vi kan skapa en maskin
    som lyssnar på oss och inser:

  238. "Det ni kallar lycka är ett fall av
    det här begreppet ni inte förstår."

  239. "Jag fixar det åt er."
    I stället kanske den extrapolerar-

  240. -och tänker att det är mungiporna
    som ska dras uppåt.

  241. Det ser vi i vanlig datavetenskap.

  242. När vi specificerar
    att vissa saker ska bli maximala-

  243. -får andra parametrar extrema värden.

  244. Att be om gem leder till att mängden
    människor och natur minimeras.

  245. Att be om andra mål kan leda till
    att om vi inte har angett äganderätt-

  246. -och mänsklig frihet och kärlek,
    så blir några av dem bortoptimerade.

  247. Det här argumentet gör oss oroliga
    över superintelligens.

  248. Jag viftar med min chefs bok.
    Nick Bostrom.

  249. Han har lagt ut det här
    mer stringent-

  250. -för de som vill diskutera det. Det
    finns mycket att göra inom området.

  251. Men om vi går tillbaka från
    en framtid med superintelligens...

  252. Det är långt framme. Vi har problem
    med att få robotar att öppna dörrar.

  253. Det tar sin tid.

  254. Om vi funderar på hur mycket robotar
    och maskiner styr vår planet-

  255. -så inser vi
    att vi lever på robotarnas planet.

  256. Vi har en logistisk infrastruktur
    som ger oss mat, energi och annat-

  257. -som är automatiserad.
    Den är full med mjukvara-

  258. -som schedulerar vart containrar ska.

  259. Kransystem är delvis automatiserade.
    Utan dem skulle ekonomin inte funka.

  260. Allokeringen av resurser sker via
    algoritmer. "Det är ju inte robotar."

  261. En bit mjukvara på en finanspersons
    dator är ingen robot-

  262. -men den har effekter.
    Jag vidgar begreppet robot.

  263. En del av de här systemen
    är explicita robotar.

  264. Ibland blir vi människor
    armarna för roboten.

  265. Många call center
    har folk som läser ett script.

  266. Deras enda jobb är att tolka talet
    från den arga kunden-

  267. -och göra rätt menyval.

  268. De är egentligen
    samma sak som en bit mjukvara.

  269. Det är medmänskligt inget bra jobb.
    Det vore bra om det automatiserades.

  270. Men mycket beslutsfattande
    påverkas av det här.

  271. Det leder till kollisioner
    när vi får lärandesystem.

  272. I somras var det bråk.
    Google hade ett datorseendesystem-

  273. -för att sätta "caption" på bilder.
    Den satte "gorilla" på ett svart par.

  274. Ja, kvinnan på bilden blev inte glad.
    Google bad om ursäkt.

  275. Det här hade de aldrig tänkt sig.
    De fixade problemet.

  276. Vid maskininlärning visar man
    en massa bilder och rätt benämningar.

  277. Vad är skillnaden mellan människa
    och gorilla? Stol och bord?

  278. Att göra fel är lika illa
    oavsett vad det gäller.

  279. Vi upplever
    att människor är viktigare.

  280. Många vill inte kallas gorillor.

  281. Det är nåt som saknas i maskin-
    inlärningen. Det behöver läggas in.

  282. När vi har fixat det,
    har vi inte fixat andra problem.

  283. Det finns andra förolämpningar som
    systemet kan göra som vi inte vet om.

  284. Vi märker det först när det händer,
    när någon får en ful förolämpning.

  285. Det finns ingen intention.

  286. Det är grundproblemet.
    Det finns inget sunt förnuft.

  287. Många försöker bygga in sunt förnuft
    i AI, men det är väldigt svårt.

  288. Man kan också få problem
    genom att bygga in rasism-

  289. -i algoritmerna av misstag.

  290. Många amerikanska och svenska företag
    använder system-

  291. -för att se kreditvärdighet.
    Man tar personuppgifter.

  292. Man tränar på kunder som har betalat
    och inte har betalat.

  293. Man hittar en metod för att gissa
    om kunden betalar igen lånet.

  294. Vissa faktorer är relevanta,
    som inkomst och kön.

  295. Vissa är mer problematiska, som ras.

  296. En del av systemen använder ras
    på ett sätt som är illegalt-

  297. -åtminstone i USA.
    Det är rasistisk mjukvara.

  298. Man kan ta bort ras som indata.
    Men en del system hittar ras ändå.

  299. De deducerar var man bor. "Du bor
    i ghettot, då betalar du inte igen."

  300. Det är implicit i dess data. Mjuk-
    varan har inga rasistiska sympatier.

  301. Den råkar bli sån på grund av data.

  302. Vem är ansvarig
    om man sen konstaterar-

  303. -att en bank bara ger lån
    till vissa grupper och inte andra?

  304. "Vi gör bara statistik,
    vi menar inget med det."

  305. Eller: "Statistiken måste explicit
    låta bli att ta hänsyn till ras."

  306. Vid maskininlärning kan den lära sig
    fel saker. Ofta på subtila sätt.

  307. Det är svårt att veta
    vad som finns i ett neuronnät-

  308. -med en miljon kommunicerande noder.
    Det är svårt att se var felet ligger.

  309. Det kan också gå snett när agenter,
    som i sig är vettiga, interagerar.

  310. Vi hade "flash crash",
    en snabb finanskrasch-

  311. -som inträffade när handlande
    algoritmer kom in i en loop-

  312. -och började sälja av.
    Priset rasade. Ingen hann reagera.

  313. En mjukvara stoppade handeln,
    den såg för konstig ut.

  314. Rättsfallen har pågått sedan dess.

  315. Man skyller på en kille
    som skrev ett av programmen.

  316. Det inträffar
    när flera agenter tittar på varandra-

  317. -och tar beslut
    som tillsammans leder till kaos.

  318. Ett annat exempel
    är den här boken på Amazon.

  319. Den är ett kap. Bara två miljoner.

  320. Den handlar om
    hur man överlever personlig bankrutt.

  321. Anledningen till att den är så dyr är
    inte att den är ett samlarexemplar.

  322. Det finns mjukvaruagenter
    som handlar på Amazon.

  323. Många säljer böcker som de inte äger.
    De ser att nån säljer boken.

  324. De erbjuder den till lite högre pris.
    De köper den från den andra agenten-

  325. -och tar mellanskillnaden.

  326. Vad händer om de tittar på varandra?
    Resultatet blir absurt dyra böcker.

  327. Här gör det ingen större skada.
    Ingen får den boken såld.

  328. Men när vi bygger in
    mer automatisering i våra system-

  329. -uppstår viss risk för jobbig
    emergens som är svårförutsägbar.

  330. Sen krånglar människorna till det.

  331. Ett problem är
    att autopiloten i flygplan är så bra-

  332. -att piloten egentligen inte behövs.

  333. Egentligen kan piloten luta sig
    bakåt, och autopiloten sköter allt.

  334. Problemet uppstår
    när autopiloten slutar fungera.

  335. Det är rationellt
    att lämna uppgiften till autopiloten.

  336. Den är bättre på jobbet. Den
    blir inte uttråkad, den somnar inte.

  337. Men när det krisar
    saknar piloten flygtimmar.

  338. Han har suttit i cockpiten,
    men han har inte lärt sig mycket.

  339. Det har hänt olyckor,
    som Air Frances flight 447-

  340. -som föll ner i Atlanten.
    Autopiloten slutade fungera.

  341. I den svarta lådan fann man att de
    försökte komma på vad som gått snett.

  342. De hade ingen aning. De var så vana
    vid att systemet fungerade-

  343. -att de gjorde fel åtgärder. Samma
    sak när ingenjörskap automatiseras.

  344. Sleipner A-plattformen sjönk till
    en kostnad av 700 miljoner dollar.

  345. Designmjukvaran
    hade dålig upplösning.

  346. Man räknade fel på krafterna
    vid fundamentet. Delar sprack.

  347. Den hjälpsamma mjukvaran påpekade
    var man skulle bättra på designen-

  348. -men på grund av upplösningen
    pekades fel delar ut.

  349. Ingenjörernas uppmärksamhet
    drogs åt fel håll.

  350. Oavsiktligt ledde det till
    ett problem på ett annat ställe.

  351. Det kanske inte var en robot,
    utan en mjukvara.

  352. Men människorna
    uppförde sig lite som robotar.

  353. De använde inte den intelligens
    som är vår "selling feature".

  354. Det går också att automatisera
    dåliga beteenden, som spam-

  355. -där mjukvara sänder reklam
    och har sig.

  356. Det finns också en del förlag
    som gör fejkade böcker-

  357. -av Wikipedia-artiklar.

  358. Om man söker på Turingtestet får man
    denna bok, inte skriven av människan.

  359. Förmodligen inte läst av en människa.
    Den trycks när den beställs.

  360. Då görs en beställning och man får
    den här erbarmliga boken tryckt.

  361. Återigen, genom att automatisera
    och outsourca färdigheter-

  362. -kan hackers dela med sig av förmågan
    att attackera webbsidor-

  363. -genom att skriva enkla program. Och
    dåliga beteenden kan automatiseras.

  364. Här finns ett problem apropå robotik.

  365. System som genomför vår vilja, även
    när den är dålig, kan automatiseras.

  366. Vi måste hitta sätt att hantera det.
    För att åter ta en filmreferens:

  367. 1927. Fritz Langs klassiska
    "Metropolis" är en berömd robotfilm.

  368. Här är roboten Maria.
    Hon ställer till med kaos.

  369. Hon är inte skurken.
    Hon är tillsagd att sprida kaos-

  370. -av de människor som
    i nån bemärkelse initierar trasslet.

  371. Jag hävdar att den mest intressanta
    figuren är Moloch.

  372. I en berömd scen ser huvudpersonen
    arbetare slita i fabriken.

  373. En olycka sker. Han får en vision
    av att maskinen är guden Moloch-

  374. -som slukar människorna i sitt gap.

  375. En intressant bild.
    Det är ett system.

  376. Moloch är den verkliga skurken.
    Det är ingen person, utan ett system.

  377. Man kan säga att det är kapitalismen.
    Det är värre än så.

  378. Det är en kombination av rationella
    val, ekonomiskt system och teknik-

  379. -som bildar en helhet. Staden
    Metropolis är i nån mening Moloch.

  380. Det är ett system som uppnår
    vissa mål, men förstör värden.

  381. Vi är dåliga
    på att designa komplexa system.

  382. Ibland lyckas vi, som med internet.

  383. Ibland producerar vi Moloch. Vi måste
    bli bättre på att designa system.

  384. Robotars styrmjukvara
    är ofta komplex.

  385. Att hitta sätt att felsöka
    är viktigt.

  386. Att hitta sätt så att dess
    värderingar överensstämmer med våra.

  387. Där har vi den riktiga utmaningen.
    Om vi utvecklar smarta system-

  388. -med människokompatibla värderingar
    får vi en bättre värld.

  389. Om de är smarta men inte kompatibla,
    blir det ingen värld alls. Bara gem.

  390. Dumma autonoma system ställer till
    trassel utan rätt sorts värderingar.

  391. Mänskliga värderingar är inte alltid
    bra. Skurkar lär använda robotar.

  392. Vi kan hitta sätt att hantera det.
    Vi kommer att bli överraskade.

  393. Vi vet att vissa teknologier
    får oväntade effekter.

  394. Vi måste skapa mer robusta policies.
    I det långa loppet-

  395. -kommer vi att få en rikare, snabbare
    och mer integrerad värld.

  396. Det finns risker,
    men robotarna har redan tagit över.

  397. Jag tror att det blir
    ett ganska bra äktenskap. Tack!

  398. Tack så jättemycket, Anders.
    Oerhört spännande.

  399. Du kom in precis på slutet...
    Man får ju tanken:

  400. Hur ska vi göra, då?
    Du pekar på alla risker.

  401. Ska man liksom kräva av...

  402. Ska man kräva av robottillverkarna
    att man alltid har en döden-knapp-

  403. -så att man kan ta livet av dem
    om de börjar ta över?

  404. Hur ska man få ordning på det?

  405. En avstängningsknapp har problemet
    att en smart maskin förstår:

  406. "Jag måste "jamma" knappen."
    Så det fungerar inte.

  407. Grundproblemet är att vi inte vet
    vilka regler vi skulle behöva.

  408. Jag är akademiker
    och säger "mer forskning behövs".

  409. Men vi kan hitta en del principer.
    Folk har föreslagit robotlagar.

  410. Alla citerar Asimovs robotlagar,
    även om de var tänkta som fiktion.

  411. De låter bra, men hans böcker visar
    att de logiska konsekvenserna av dem-

  412. -producerar konstiga
    och ibland felaktiga resultat.

  413. Vi funderar på hur man gör en maskin
    som vill lära sig vad människan vill.

  414. Det är fascinerande etiskt,
    filosofiskt och mjukvarumässigt.

  415. Dataingenjörer och etiker
    arbetar för att få rätsida på det.

  416. Vi vet att barn gör det.
    Barn är sociopater.

  417. Gradvis lär de sig att dela med sig
    av leksaker och bli bra medborgare.

  418. Det går att använda lärandeprocesser.

  419. Senare kommer vi in
    på juridiskt ansvar.

  420. Vissa maskiner är farligare
    och kräver kontroll.

  421. Det är svårt att göra en enkel regel,
    verkligheten är inte enkel.

  422. Vi kan ha lager av säkerhetsåtgärder.
    Uppfostran för robotar.

  423. En del hårdkodade regler.
    "Människor ska inte skadas."

  424. Och en del extraknappar.
    "Just in case."

  425. Om man ser på samhällsdebatten
    så har man i många år-

  426. -haft etiska diskussioner om
    genteknik. Vad får forskningen göra?

  427. I USA kring stamcellsforskning.
    Får man pilla i livets beståndsdelar?

  428. Man hör inte mycket forskningsetisk
    debatt om robotteknik.

  429. Mycket handlar om tillämpningar,
    till exempel militära robotar.

  430. Jag skrev under uppropet
    mot autonoma vapensystem.

  431. Det finns goda skäl
    till att vi inte vill gå den vägen.

  432. -När det gäller vanlig robotik...
    -Bara så jag förstår.

  433. Där ska man inte ens få forska?

  434. Forskning behövs nog, men ingen
    utveckling. De hänger ofta ihop.

  435. Problemet är att de förstärker
    statens förmåga att utöva våld.

  436. Nu utan att ens medborgarna i armén
    kan sätta nåt emot.

  437. Dit vill vi inte gå. Men det behövs
    mer forskningsetik för mjukvara.

  438. Jag menar att vi behöver vara snälla
    mot många neuronnätsimulationer.

  439. Du var... Som Helle påpekade var du
    dyster under nästan hela föredraget-

  440. -utom på slutet när du försökte
    bygga upp nåt positivt.

  441. Tror du personligen att det går
    åt skogen, och i så fall när?

  442. Vi hade ett diagram på institutet
    där folk satte upp sannolikheten-

  443. -att mänskligheten dör ut det här
    århundradet. Vår median var 12 %.

  444. Men då är det 88 % chans
    att allt går finfint.

  445. Jag är optimist. Ett föredrag
    hamnar lätt på risksidan.

  446. Det är lätt att spela riskkorten.
    Möjligheterna är fantastiska.

  447. Konstgjorda proteser
    nämndes tidigare.

  448. Vi kan föra över värderingar
    genom att koppla samman oss.

  449. Och även få en humanistisk teknik.
    Det kan gå otroligt bra.

  450. En liten risk att det går åt helsike
    gör att vi måste forska järnet.

  451. Du var inne på det här med att
    man kan programmera in värderingar.

  452. Till exempel synen på lycka,
    att man ordnar det som gör gott.

  453. Där finns också kulturella
    och religiösa aspekter.

  454. Blir det en mainstreamkultur av allt?
    Att bara den västerländska gäller?

  455. Mainstreamkulturen handlar nog mer
    om att vi har en globaliserad värld.

  456. Apropå värderingar i maskiner
    menar många filosofer-

  457. -att det finns
    universella värderingar.

  458. De är förmodligen ganska abstrakta-

  459. -och tandlösa. Vi vill lägga på sånt
    som hör till vårt samhälle.

  460. Den japanska synen på robotar
    är annorlunda.

  461. Här har Gud skapat människan
    till sin avbild.

  462. Roboten blir ett plagiat.

  463. I Japan menar man att det finns
    en inneboende själ i ting.

  464. Då har roboten en ande. Det gäller
    bara att ha rätt sorts relation.

  465. Kultur kan forma hur det utvecklas.
    Vi är lite väl rädda för hoten.

  466. Vi tänker mycket
    på hur det kan gå snett-

  467. -och vågar inte chansa
    med det positiva.

  468. Det finns jobb där vi har
    moralisk skyldighet att automatisera.

  469. Jag tänkte fråga vad vi ska göra.
    Förutom den etiska diskussionen.

  470. Vad ska vi mer göra
    för att de här 80 % ska slå in?

  471. Mycket handlar om att skapa robusta
    system. Bättre sätt att hantera-

  472. -emergenta fenomen, vilket är svårt.
    Det är abstrakt.

  473. Men också praktiska saker.
    Ta till exempel hälsovården.

  474. Vi har en moralisk plikt
    att automatisera.

  475. Inte för att jag ogillar läkare.
    Men om man kan få den billigare-

  476. -vilket automatiseringen gör,
    så får fler tillgång till den.

  477. Bra forskningsmål. Att göra laglydiga
    robotar är enklare än etiska.

  478. Det är ohyggligt svårt, men det är
    ett bra mål. Vi ska vara ambitiösa.

  479. Jag vill ha dialogen mellan
    ingenjörer, allmänhet och filosofer.

  480. Vi är rädda vid vårt institut
    för att bli kända som negativa.

  481. Då vill inte ingenjörerna lyssna.
    De tror vi skadar deras anslag.

  482. Vi vill påpeka problem,
    och hoppas att de säger:

  483. "Det har vi fixat. Jag har en kod som
    korrigerar det." Då blir vi lyckliga.

  484. Vi ska strax ta upp
    en representant för staten här.

  485. Vad tycker du
    att politiken ska göra mer?

  486. Ett Trafiksäkerhetsverk för robotar?

  487. Eller bilprovning för robotar?

  488. I det långa loppet, ja. Än vet vi
    inte vad en säker autonom robot är.

  489. Vi förstår oss på industrirobotar,
    kanske kan vi hantera autonoma bilar.

  490. Vi behöver bättre koll
    på vart fältet är på väg.

  491. Även folk i fältet har svårt att veta
    vad som har hänt sedan i fjol.

  492. -Där skulle vi ha nytta av staten.
    -Stort tack.

  493. -Du ska få choklad.
    -"Yes"!

  494. Textning: Johannes Hansson
    www.btistudio.scom

Hjälp

Stäng

Skapa klipp

Klippets starttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.

Klippets sluttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.Sluttiden behöver vara efter starttiden.

Bädda in ditt klipp:

Bädda in programmet

Du som arbetar som lärare får bädda in program från UR om programmet ska användas för utbildning. Godkänn användarvillkoren för att fortsätta din inbäddning.

tillbaka

Bädda in programmet

tillbaka

När roboten tar över

Produktionsår:
Längd:
Tillgängligt till:

Kommer roboten att bli smartare än människan? Hur ska vi agera om en superintelligens tar över jorden? Är det ren science fiction eller ett tänkbart scenario? Anders Sandberg, forskare vid Future of Humanity Institute vid University of Oxford berättar om hur intelligenta robotarna kan bli. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Ämnen:
Teknik
Ämnesord:
Maskinteknik, Människa-maskin-interaktion, Robotar, Robotteknik, Teknik
Utbildningsnivå:
Högskola

Alla program i UR Samtiden - Robotdagen 2015

Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Bortom robotfronten

Var befinner sig utvecklingen på robotfronten idag och var kommer den att vara imorgon? Vad är spekulationer och vad är faktisk vetenskap? Danica Kragic Jensfelt, professor i datalogi vid KTH och ledamot i Sveriges unga akademi, berättar om hur det har sett ut och i vilken riktning utvecklingen går framåt. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

När roboten tar över

Kommer roboten att bli smartare än människan? Hur ska vi agera om en superintelligens tar över jorden? Är det ren science fiction eller ett tänkbart scenario? Anders Sandberg, forskare vid Future of Humanity Institute vid University of Oxford berättar om hur intelligenta robotarna kan bli. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Var inte rädd

Vad kommer att hända med jobb, utbildning och arbetsliv i framtiden? Vilken påverkan har robotiseringen och digitaliseringen på arbetsmarknaden? Maja Fjaestad, statssekretare i Regeringskansliet, talar om digitaliseringens demokratiserande funktion. Som exempel tar hon möjligheten att via smartphones och appar starta företag, oavsett var du bor i världen. I mindre demokratiserade länder har teknikutvecklingen varit viktig då människor har fått tillgång till utbildning, upplysning och nyheter via internet. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Varför arbeta?

Måste vi arbeta, kan vi inte få medborgarlön? Vad händer med vår självbild och vårt värde utan arbete? Om vi ska jobba 8 timmar om dagen, vad ska vi jobba med och hur ska vi få alla att nå dit? Roland Paulsen, författare och doktor i sociologi vid Lunds universitet och Stefan Fölster, chef för Reforminstitutet, debatterar detta. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Roboten och den svenska modellen

Panelsamtal om arbete och arbetsmarknaden i framtiden. Den svenska modellen var välanpassad för stora teknikföretag, men framtidens företag tycks kräva mindre antal anställda. Framtidens industri tycks dessutom kräva allt färre mänskliga arbetare. Hur bör den svenska modellen förändras för att tillgodose dessa omständigheter? Medverkande: Anders Ferbe, förbundsordförande IF Metall, Åke Svensson, VD Teknikföretagen och Irene Wennemo, statssekreterare på Arbetsmarknadsdepartementet. Moderatorer: Gustaf Arrhenius och Helle Klein. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Vems är skulden när en robot gör fel?

Vilka beslut ska robotar programmeras att tas i vilka situationer? Hur ska till exempel en självkörande bil bestämma när det råder en värdkonflikt? Vems är ansvaret? Kan en robot fatta moraliska och etiska beslut? Michael Laakasuo, doktor i filosofi vid Helsingfors universitet och Anders Sandberg, forskare vid Future of Humanity Institute, University of Oxford, diskuterar ämnet. Moderator: Gustaf Arrhenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Robotdagen 2015

Vem vill opereras av en robot?

Vilken roll har människan i framtidens vård och vilken ska robotens vara? Vilka känslor väcker en robot hos oss? Litar vi på roboten? Ett samtal om etik, mänsklighet och behov. Medverkande: Sara Ljungblad, doktor i människa-maskin interaktion, Simon Winter, interaktionsdesigner och doktor i kognitionsforskning och Clara Lindblom, äldre- och personalborgarråd. Moderatorer: Helle Klein och Patrik Hadenius. Inspelat den 9 oktober 2015 på Clarion Sign Hotell i Stockholm. Arrangörer: Institutet för framtidsstudier, Dagens Arbete och Forskning och framsteg.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Visa fler

Mer högskola & teknik

Spelbarhet:
UR Skola
Längd
TittaUR Samtiden - Vattenhantering vid extremskyfall

Rum för vatten

Extrema regnmängder blir vanligare. Nu måste riskområden kartläggas och minimeras, och utrymme för vatten skapas, säger hydrologen Erik Mårtensson. Inspelat på trädgårdsmässan Nordiska trädgårdar den 21 mars 2014. Arrangör: Fritidsodlingens riksorganisation.

Spelbarhet:
UR Skola
Längd
LyssnaBildningsbyrån - Kina

Peking på hjul

I det en gång så cykeltäta Peking trängs idag lika många bilar som finns i hela Sverige. Ibland är luftföroreningarna så svåra att flyg får ställas in och motorvägar stängas av. Men nu satsar Peking på att begränsa biltrafiken och bygga ut kollektivtrafiken.

Fråga oss