Titta

UR Samtiden - Vetenskapsfestivalen 2016

UR Samtiden - Vetenskapsfestivalen 2016

Om UR Samtiden - Vetenskapsfestivalen 2016

Föreläsningar och panelsamtal från Vetenskapsfestivalen 2016 som kommunicerar vetenskap på ett lättillgängligt sätt och skapar mötesplatser för vetenskapsintresserade i alla åldrar. Inspelat på Göteborgs universitet den 16 april 2016. Arrangör: Vetenskapsfestivalen och Göteborg & Co.

Till första programmet

UR Samtiden - Vetenskapsfestivalen 2016 : AI och existentiell riskDela
  1. Rubriken för det här föredraget-

  2. -är samma som titeln på min bok,
    som kom ut för ett par månader sedan:

  3. "Here be Dragons: Science, Technology
    and the Future of Humanity".

  4. Uttrycket "here be dragons"
    har jag brukat förklara-

  5. -som något som förekom på kartor
    under medeltiden.

  6. Men kanske är det snarare en utbredd
    föreställning i dagens spelvärld-

  7. -om hur man skrev på kartor då.

  8. Det skrevs på outforskade områden för
    att varna framtida upptäcktsresande-

  9. -för att det inte var utforskat.

  10. Här kunde det finnas farliga saker,
    som drakar.

  11. Och det använder jag då
    som en metafor-

  12. -för det okända landskap av framtida
    teknologier som vi har framför oss.

  13. Teknolgierna kan ge mänsklig välfärd
    och ekonomisk avkastning-

  14. -men det kan också finnas faror.

  15. Väldigt snabbt kommer här innehålls-
    förteckningen. Det är tio kapitel.

  16. Jag börjar med ett inledande kapitel,
    och sedan statuerar jag huvudtesen-

  17. -om att vetenskaplig och teknisk
    utveckling kan leda till mycket bra-

  18. -men också till dåliga saker, och i
    värsta fall mänsklighetens undergång.

  19. Återstående kapitel ägnas mestadels-

  20. -åt olika problem och teknikområden-

  21. -och diskussion om vilka möjligheter
    och hot som finns på dessa områden.

  22. I kapitel 7 och 8
    blir det extra mycket betoning-

  23. -på undergångsscenarier.

  24. Men vi har också
    fantastiska möjligheter framför oss-

  25. -som det som kapitel 9 fokuserar på:
    kolonisation av världsrymden.

  26. I kapitel 10 betonar jag att
    vetenskapen inte kan tala om för oss-

  27. -hur vi borde gå framåt,
    utan där kommer värderingsfrågor in.

  28. Vi måste till slut bestämma oss för
    vilken sorts värld vi vill leva i.

  29. Och det måste komma in i våra planer
    för hur vi styr utvecklingen.

  30. Med de kommande två bilderna
    vill jag illustrera min huvudpoäng-

  31. -om att framtiden kan bli väldigt
    bra, eller så kan det bli tvärtom.

  32. Här har vi en konstnärlig bild-

  33. -av insidan av en så kallad
    O'Neill-cylinder.

  34. Den roterar runt sin egen axel-

  35. -för att skapa
    artificiell gravitation.

  36. På cylinderns insida har man
    dels öppet för att släppa in solljus-

  37. -dels mark att använda.

  38. Här har man fått det grönt och fint.

  39. Så det här är ett av många väldigt
    spännande och positiva scenarier.

  40. Men framtiden kan också,
    om det vill sig illa-

  41. -se mer ut på det här viset.

  42. Och jag hävdar i min bok att
    med tanke på vad som står på spel-

  43. -finns det anledning
    att försöka agera med framsynthet.

  44. Vi bör försöka styra utvecklingen
    så att vi maximerar chanserna-

  45. -att få till de positiva scenarierna-

  46. -samtidigt som vi undviker
    de värsta riskerna.

  47. Jag skulle vilja beskriva situationen
    i dag som att frågan knappt ställs.

  48. Dagens forskningspolitik handlar om-

  49. -att accelerera forskningen
    så mycket som möjligt-

  50. -och man pratar väldigt lite
    om konsekvenserna av den.

  51. Framför allt är det väldigt lite tal
    om riskerna, och jag brukar säga:

  52. "Med bindel för ögonen rusar vi fram,
    så fort vi kan, genom ett minfält."

  53. Det tror jag inte är en bra idé,
    utan vi bör reflektera över detta.

  54. Vilka bär då ansvaret för
    att forskningen drivs i en riktning-

  55. -som är mer gynnsam?
    Ja, det är forskarna själva.

  56. Och när jag talar med forskarkollegor
    betonar jag att det är så i viss mån.

  57. Forskare har ansvar för
    konsekvenserna av sina upptäckter.

  58. Men det räcker inte.

  59. Vi kan inte lita på
    att forskarnas självsanering räcker.

  60. Då finns det en rad andra aktörer
    som också har ett ansvar:

  61. Universitet, företag, forskningsråd
    och -stiftelser, politiker-

  62. -och i slutändan vanliga samhälls-
    medborgare, som måste engagera sig-

  63. -välja rätt politiker och så vidare.

  64. Och jag skulle kunna ge
    många exempel-

  65. -på varför vi inte kan lita
    på den enskilda forskaren-

  66. -i ett sådant här syfte.

  67. Jag tar ett exempel, en intervju
    i tidskriften The New Yorker-

  68. -med den kända AI-forskaren
    Geoffrey Hinton-

  69. -som arbetar på Google.

  70. Han fick frågan om
    vad konsekvenserna kunde väntas bli-

  71. -av den AI-teknologi
    som han utvecklar.

  72. Han uttryckte då stor pessimism:

  73. "I think political systems
    will use it to terrorize people."

  74. "Jag tror att det politiska systemet
    kommer att använda tekniken"-

  75. -"till att terrorisera folket."

  76. "Already agencies like the NSA are
    attempting to abuse such technology."

  77. På den uppenbara följdfrågan
    varför han gör den här forskningen-

  78. -som han tror kommer att få skadliga
    konsekvenser, svarar han ärligt:

  79. "The truth is that the prospect
    of discovery is too sweet."

  80. Det är alltså lusten i forskningen,
    lusten att upptäcka nya saker.

  81. När man forskar
    måste man fokusera på det.

  82. Man kan inte tänka på omvärlden
    i själva forskningsprocessen.

  83. Så på ett vis är det en bra sak
    för att kunna fokusera på uppgiften.

  84. Men då och då måste man fråga sig:
    Är det här något att satsa på?

  85. Hinton är ovanligt ärlig i sitt svar,
    både mot sig själv och omvärlden.

  86. Om jag skulle ge andra exempel,
    skulle vi kunna se många forskare-

  87. -som lurar sig själva lite att
    tänka bort den egna moraliska rollen.

  88. Jag nöjer mig med det här exemplet-

  89. -som ska visa
    att vi behöver strukturer-

  90. -som hanterar frågorna om att
    styra forskningen i gynnsam riktning.

  91. Jag hinner inte prata
    om alla teknikområdena-

  92. -så jag tänkte fokusera på AI,
    artificiell intelligens.

  93. Utvecklingen av AI utgör en stor del-

  94. -av förväntad ekonomisk tillväxt, med
    i princip obegränsade möjligheter.

  95. I en rapport från konsultföretaget
    McKinsey för ett par år sedan-

  96. -uppskattades
    de ekonomiska vinsterna-

  97. -av innovationer på AI- och robotik-
    området i ett tioårsperspektiv.

  98. De hamnade
    på siffran 50 000 miljarder dollar.

  99. Det är tillräckligt mycket för att ha
    en väldig inverkan på ekonomin.

  100. Så det finns mycket att hämta
    på området, men även orosmoln.

  101. Och jag vill nämna tre sådana.

  102. Det första är autonoma drönare-

  103. -det vill säga autonoma,
    självflygande flygplan-

  104. -för militärt syfte
    och annan militär AI-teknologi.

  105. Kan det bli farligt? Mördarrobotar...
    Ja, det säger sig nästan själv.

  106. Punkt 2: det som i analogi med
    outsourcing kallas "robosourcing"-

  107. -automatisering som för över
    arbetsuppgifter från människan-

  108. -till maskiner.

  109. Vad kan det här tänkas få för
    konsekvenser för arbetsmarknaden?

  110. Den tredje
    och mest spekulativa punkten är:

  111. När AI har nått den nivån att
    vi själva inte längre är smartast-

  112. -kommer vi då
    att kunna behålla kontrollen?

  113. Jag är tveksam till det. Vi bör
    beakta risken att vi inte kan det.

  114. Militär AI-teknologi. Det här
    är ett amerikanskt drönarflygplan-

  115. -som fyrar av en raket.

  116. Det är inte bara jag som är orolig
    över utvecklingen på det området.

  117. Förra sommaren skrevs ett öppet brev,
    undertecknat av 16 000 forskare-

  118. -inom AI och besläktade områden,
    med en begäran om ett moratorium-

  119. -alltså att stoppa utvecklingen
    av AI-teknologi för autonoma vapen.

  120. Jag ska citera ur brevet. Jag tycker
    att det är ganska kraftfullt.

  121. "If any major military power pushes
    ahead with AI weapons development"-

  122. -"a global arms race is virtually
    inevitable and it is obvious"-

  123. -"that these weapons will become
    the kalashnikovs of tomorrow."

  124. "They require no costly materials"-

  125. -"so they will become ubiquitous
    and cheap to mass-produce."

  126. "They will appear on the black market
    and in the hands of terrorists"-

  127. -"dictators, warlords wishing to
    perpetrate ethnic cleansing etc."

  128. "Autonomous weapons are ideal
    for destabilizing nations"-

  129. -"subduing populations and
    selectively killing ethnic groups."

  130. Nu kommer nog
    tidernas största "understatement":

  131. "The military AI arms race would not
    be beneficial for humanity."

  132. Man varnar alltså för en kapprustning
    på det militära AI-området.

  133. Om det här kommer i gång blir det
    väldigt svårt att kontrollera.

  134. Vi kan inte skjuta det på framtiden.
    Problematiken är nära förestående.

  135. Punkt 2: robosourcing, automatisering
    av mänskliga arbetsuppgifter.

  136. Jag ska bara kort säga
    att detta förstås inte är något nytt.

  137. Det har pågått genom hela historien-

  138. -och extra mycket
    sedan industrialiseringen.

  139. Men vi har en ny situation,
    där utvecklingen går fortare.

  140. Vi går också mot en utveckling-

  141. -där inte bara manuella uppgifter,
    alltså kroppsliga, förs över-

  142. -utan det tränger också in
    på det intellektuella området.

  143. Vi tänker på arbetslöshet
    som något dåligt-

  144. -men kanske kan det vara positivt-

  145. -att vi frigör mänsklig tid
    från att behöva arbeta-

  146. -så att vi kan fokusera på konst,
    kultur, sport, kärlek-

  147. -och allt
    som vi kanske tycker bättre om.

  148. Men det är ett stort och svårt fält,
    så jag går vidare till punkt 3-

  149. -om en eventuell robotrevolution.
    Kan det verkligen inträffa?

  150. För att förstå hur plausibelt ett
    sådant scenario är, bör vi bedöma-

  151. -hur troligt ett genombrott
    inom AI är, och vad det kan innebära.

  152. Jag brukar strukturera diskussionen
    i två delar. Först AI:s prestanda:

  153. Hur smart kan en AI bli, och när
    kan en superintelligent AI skapas?

  154. Den andra punkten handlar om vad AI:n
    kan förväntas ha för drivkrafter.

  155. Vad kommer en superintelligent AI
    att vilja göra?

  156. Jag ska skumma förbi punkt 1,
    med en tankefigur-

  157. -som jag hoppas att vi kan komma in
    på i paneldiskussionen sedan-

  158. -i termer av tre magnifika bibliotek.

  159. Jag ska i stället
    prata lite om dynamiken.

  160. När AI har nått mänsklig intelligens-
    nivå, hur fort kan det då tänkas gå?

  161. Där finns spekulationer
    och seriös teoribildning-

  162. -kring något som kallas singularitet
    eller intelligensexplosion-

  163. -vilket antyder att det kan gå fort.

  164. När vi gör en maskin som är smartare
    än vi i generell intelligens-

  165. -blir den också bättre än vi
    på att bygga smart AI.

  166. Den kan sedan bygga en ännu smartare
    maskin eller modifiera sig själv.

  167. Det är i princip samma sak.

  168. Och så får vi ännu smartare AI, som
    bygger ännu bättre AI och så vidare.

  169. Frågan är hur fort det förloppet går.

  170. Det råder stor osäkerhet kring det,
    men det skulle kunna gå väldigt fort.

  171. Och ju fortare, desto farligare-

  172. -för desto mindre tid får vi då
    att anpassa oss till nya situationer.

  173. Då kan man fråga sig varför en AI,
    bland alla andra saker-

  174. -skulle välja att prioritera
    att förbättra sin egen förmåga-

  175. -eller, som sagt,
    att konstruera ännu bättre AI?

  176. Det för oss vidare till fråga 2,
    om AI:s drivkrafter.

  177. Det bästa teoretiska ramverk
    som vi har för den frågan är det-

  178. -som datalogen Steve Omohundro
    och Nick Bostrom har formulerat-

  179. -för ultimata och instrumentella mål.

  180. Ultimata mål
    vill man verkligen uppnå.

  181. En AI kanske har programmerats
    för att göra precis det-

  182. -exempelvis att göra summan av allas
    välbefinnande så hög som möjligt.

  183. Det skulle kunna vara det ultimata
    mål som programmeras in i datorn.

  184. De instrumentella målen är de mål-

  185. -som maskinen själv kan sätta upp-

  186. -för att gynna det ultimata målet.

  187. Här finns en kontrast. Ultimata mål
    kan egentligen vara vilka som helst.

  188. Praktiskt taget vilket ultimat mål
    som helst-

  189. -är kompatibel med
    godtyckligt höga intelligensnivåer.

  190. De instrumentella målen
    är däremot lättare att förutsäga-

  191. -för varje tillräckligt smart AI kan
    sätta upp vissa instrumentella mål-

  192. -nästan oavsett
    vad dess ultimata mål är.

  193. Ni förstår nog bättre om jag ger
    några exempel på instrumentella mål.

  194. Självbevarande är ett sådant exempel.

  195. En intelligent AI kommer inte att
    vilja att vi drar ut sladden på den.

  196. Den vill jobba för sitt ultimata mål-

  197. -och inser att om vi drar ur sladden
    kommer den inte att kunna göra det.

  198. Den kommer att kämpa för att bevara
    sig själv och vara i gång.

  199. Andra instrumentella mål
    som vi kan förvänta oss att se-

  200. -är anskaffande av hårdvara och andra
    resurser för att bli mer effektiv-

  201. -samt förbättrad mjuk- och hårdvara.

  202. Ju smartare AI:n är, desto bättre
    kan den jobba för de ultimata målen.

  203. Därför kan vi vänta oss
    den självförbättrande dynamiken-

  204. -och även bevarande
    av den ultimata målsättningen.

  205. Om vi får förändra dess optimala mål-

  206. -kommer den inte att kunna verka för
    det som just nu är dess ultimata mål-

  207. -det som är dess kriterium
    för vad som är bra.

  208. Det här leder
    till ganska skrämmande scenarier.

  209. Ett kallas "Paperclip Armageddon"
    - gemundergången.

  210. Man tänker sig att intelligens-
    explosionen utgår från en maskin-

  211. -som ska sköta en gemfabrik,
    med målet att maximera produktionen.

  212. Maskinen når superintelligensnivåer
    och kan ta kontroll över allt-

  213. -här på vår planet-

  214. -och den kommer att göra allt den kan
    för att omvandla hela planeten-

  215. -kanske hela solsystemet
    till gem.

  216. Det här är något som vi människor
    kommer att vilja stoppa.

  217. Men om maskinen är superintelligent-

  218. -förstår den nog
    att vi har sådana tankar.

  219. Därför kan man föreställa sig
    att den på ett tidigt stadium-

  220. -väljer att avskaffa oss för att
    kunna fortsätta med produktionen.

  221. Det här vill vi undvika.
    Det finns idéer om hur man gör.

  222. Det är av yttersta vikt
    att en superintelligent AI har mål-

  223. -som i tillräcklig grad
    prioriterar mänsklig välfärd-

  224. -och som även är i linje
    med mänskliga värderingar.

  225. Vi kommer troligen inte att kunna få
    en superintelligent AI att ändra-

  226. -sin ultimata målsättning.

  227. Den möjlighet vi har är-

  228. -att på ett tidigt stadium installera
    gynnsamma värderingar och mål-

  229. -innan AI:n når superintelligens.

  230. Det är idén bakom "friendly AI"-

  231. -som förespråkas av forskare
    som Nick Bostrom och andra.

  232. Men minsta fel i formuleringen
    av målet kan få katastrofala följder.

  233. Det är något som återkommer
    i Isaac Asimovs robotnoveller.

  234. Han har några robotlagar.

  235. Den första regeln är:
    Du får aldrig skada en människa.

  236. Den andra är: Lyd mänskliga order,
    om det inte bryter mot första regeln.

  237. Den tredje är: Skydda dig själv,
    om det inte bryter mot de två försa.

  238. Det här låter som ett säkert koncept-

  239. -men nästan alla noveller handlar om
    hur det ballar ut på oväntade sätt.

  240. En perverterad distansering kan vara-

  241. -att om vi försöker formulera målet
    att gynna oss människor-

  242. -kanske vi tänker att om människor
    ser glada ut, har man gjort rätt.

  243. Så för att ge ett mer konkret mål
    än bara att maximera mänsklig lycka-

  244. -kan målet vara
    att få människor att se glada ut.

  245. Och det skulle maskinen kunna lösa-

  246. -genom att paralysera oss i glada
    uttryck, och sedan göra vad den vill.

  247. Det är ingen bra idé, så vi hittar på
    ett bättre sätt att definiera lycka.

  248. Då bestämmer sig maskinen för-

  249. -att koppla upp oss
    på "life support"-maskiner-

  250. -och konstant stimulera
    våra lustcentra elektiskt.

  251. Sedan kan maskinen göra vad den vill.

  252. Sådana perverterade distanseringar
    är jättesvåra att undvika-

  253. -när man ska formulera
    moraliska regelsystem.

  254. Det gick lite mycket tid i början.

  255. Jag ska bara avrunda med att citera
    Nassim Nicholas Taleb-

  256. -som i sin bok "The Black Swan"-

  257. -poängterar hur svårt det är
    att förutse teknikutvecklingen.

  258. "If you are a Stone Age thinker
    called on to predict the future"-

  259. -"for your chief tribal planner"-

  260. -"you must project
    the invention of the wheel."

  261. "If you can prophesy the wheel,
    you know what it looks like-"

  262. -"and thus you already know
    how to build a wheel."

  263. Man kan inte förutse uppfinnandet
    av hjulet utan att redan ha insett-

  264. -och uppfunnit hjulet.

  265. Det är en stor svårighet-

  266. -när det gäller att förutse
    en framtida teknologisk utveckling.

  267. Han har en poäng.

  268. Förutsägelser om vad framtida teknik
    kan föra med sig är väldigt svåra.

  269. Men givet hur stora värden
    som står på spel-

  270. -bör vi ändå försöka göra
    så rimliga förutsägelser som vi kan-

  271. -och agera med framsynthet.

  272. Vi är lite över tiden nu,
    så jag stannar här-

  273. -så kan vi fortsätta med panelen.
    Tack.

  274. Jag är väldigt nyfiken
    på vad Dag och Thore säger om detta.

  275. Har jag rätt eller fel?

  276. Jag vill gärna börja i en annan ände.

  277. Du har ju skrivit boken om drakar
    och andra hot mot mänskligheten.

  278. Jag och Thore
    representerar datavetenskapen.

  279. Det är vi som eventuellt
    ska åstadkomma det här.

  280. Jag vill gärna säga något
    om var vi står i dag-

  281. -så att vi får lite fakta på bordet.

  282. Då vill jag säga att det
    kan vara väldigt lätt att tro-

  283. -att steget till den
    superintelligenta datorn ligger nära.

  284. Vi ser en fantastisk utveckling,
    som uppenbarligen har accelererat.

  285. Vi har internet och vet
    att vi snart får självkörande bilar.

  286. Datorerna slår oss i de flesta spel.

  287. Det verkar rusa på.
    Det är det som syns.

  288. Men om man tittar på insidan
    är det uppenbart-

  289. -att mekanismerna som ligger bakom
    är väldigt specialiserade.

  290. Man kan skilja
    på specialiserad intelligens-

  291. -och generell intelligens,
    som du nämnde.

  292. Schackprogrammet
    kan bara spela schack.

  293. Bilen som kör själv
    kan bara köra bil själv.

  294. Den dag vi har generell intelligens-

  295. -vore när bildatorn plötsligt säger
    att den inte har lust att köra bil-

  296. -utan vill ägna sig åt schack
    eller musik - eller något annat.

  297. Och så ser inte mekanismerna ut
    - inte tillnärmelsevis.

  298. Framstegen inom AI-forskningen,
    där man började med sökning...

  299. Man prövar olika fall,
    som i schackdatorerna.

  300. Det har man utökat med att man
    kan stoppa in stora mängder data-

  301. -och få datorerna
    att lära sig själva.

  302. Det är nog ett väldigt viktigt steg.

  303. Men det är fortfarande fråga
    om den speciella intelligensen.

  304. Ja, jag kan fortsätta där,
    men du kan kanske...

  305. Det låter som om vi är på samma sida.

  306. Men vi kan låta oärliga när vi säger:

  307. "Nu kan de det här, och nu kan de gå,
    men vi är fortfarande smartare."

  308. Så ett motargument, som jag tror
    är fel, är att vi står här-

  309. -och vi tittar
    på de artificiella intelligenserna.

  310. Det är datorer, som har funnits sedan
    1940-talet. De är mycket långt borta.

  311. Vi sitter här, och datorerna
    är fortfarande väldigt långt borta.

  312. Nästan allt som rör sig snabbt mot
    oss ser ut som om det är långt borta.

  313. Men det kommer inte att bli så här:

  314. De kommer närmare och närmare,
    och nu börjar vi oroa oss.

  315. Nu är det råtta, hund-

  316. -gris, byfåne, Olle Häggström,
    och sedan är det terminatorscenariot.

  317. Vi kommer inte att ha mycket tid
    mellan byfåne och Olle Häggström-

  318. -och faktiskt inte
    mellan råtta och Olle heller.

  319. För det är långt borta,
    och sedan är det förbi.

  320. Vi har inget riktigt intuitivt
    avståndsmått för intelligens.

  321. Så det är ett skrämmande och
    underhållande scenario att titta på.

  322. Och det finns ett extra argument.

  323. Oavsett hur intelligent man tycker
    att min mobil av arbiträrt märke är-

  324. -så är den än så länge dummare
    än Olle på nästan alla nivåer.

  325. Men med åren kommer den allt närmare
    ett av de mest komplexa objekt-

  326. -i universum, nämligen Olles hjärna.
    Det gäller faktiskt alla era hjärnor.

  327. Vi tar Olle för att han är lång nog.

  328. En av Olles poänger är att så fort
    datorn, som blir allt smartare-

  329. -Iphone 6, 7, 8, 9...

  330. Den här uppfinningen, när vi går
    från Olle till Olle plus lite mer-

  331. -blir Homo sapiens sista uppfinning.

  332. För då är någon annan smartare än vi,
    och då fortsätter den själv.

  333. Så det kommer att gå ännu snabbare
    än jag visade, för det accelererar.

  334. Så det är ett skrämmande
    och visuellt övertygande scenario-

  335. -som en hjärna kan vakna
    mitt i natten.

  336. Men jag tror att det är fel.

  337. Och det beror
    på två missuppfattningar.

  338. Den ena är att det här
    skulle vara en "monovariat" rymd-

  339. -där intelligens bara är åt ett håll.
    För om man öppnar den här-

  340. -finns ett schackprogram som troligen
    är bättre än både jag och du.

  341. Och det har det varit ganska länge.

  342. Men den har bara en maximerad schack-
    egenskap, som är i en annan riktning.

  343. Och om man vill vara...

  344. Jag tycker att AI är jättekul.

  345. Men ett sätt att titta på det här är-

  346. -att det vi kunde om generell
    intelligens, ligger omkring 40-talet-

  347. -med de första datorerna som byggs.

  348. Och om vi tittar i dag så ligger de
    kvar precis där de var på 40-talet.

  349. Det har inte hänt ett dugg
    när det gäller att göra generell AI.

  350. På 60-talet tycker jag att det fanns
    några försök i AI-forskningen-

  351. -att försöka härma det
    som händer här.

  352. Men det kom ingen vart, så i stället
    tog man en massa steg åt andra håll-

  353. -och de har varit supereffektiva.

  354. Det är schackdatorer, Angry Birds
    och Microsoft Words...nja.

  355. Det var ett dåligt exempel.

  356. Så att utgå ifrån att intelligens
    bara är en sak, tror jag är fel.

  357. Nu kanske någon annan vill ta över.
    Jag har fler exempel, men...

  358. Nej men jag tycker ju-

  359. -att allt som ni säger här
    väger tungt.

  360. Jag kan fundera över att det nog ändå
    har skett vissa små steg-

  361. -i riktning mot
    mer generell artificiell intelligens-

  362. -som programmet som kan lära sig
    själv att spela olika Atari-spel.

  363. Det är ändå en större generalitet
    än att bara kunna spela ett spel.

  364. Ja, och vi är inte alls imponerade,
    för det är vad man kan vänta sig.

  365. Det är precis sådana saker som
    jag vet att man kan göra med datorer.

  366. Det ser häftigt ut och är superkul,
    men det är inte närmare AI.

  367. Varför är det då så svårt att förstå
    vad Dag och jag menar?

  368. Varje gång vi säger att datorer inte
    är bra på schack eller go exempelvis-

  369. -så kommer det datorer som kan det.

  370. Problemet med vår defensiva roll-

  371. -formulerades redan av John
    von Neumann, tror jag, på 40-talet.

  372. Han sa att varje gång
    som vi förklarar tillräckligt noga-

  373. -vad datorer inte kan, har vi också
    hittat på en algoritm för det.

  374. Alltså så fort vi är tillräckligt
    precisa, och jag tvingas att säga-

  375. -"datorer inte kan inte härleda
    följande slutsats"-

  376. -då har jag faktiskt beskrivit
    hur datorn skulle lösa det.

  377. Så jag är i en omöjlig situation.

  378. Jag kan inte säga "när datorer
    kan det här, är jag imponerad".

  379. För om jag uttrycker det precist nog-

  380. -kan du sätta dig och be
    tre "exjobbare" att koda upp det.

  381. Och de kommer att lyckas
    om jag har varit tillräckligt precis.

  382. Det är en rolig paradox.

  383. Jag tyckte att det var väldigt roligt
    att höra den beskrivningen.

  384. Det låter som om vi säger samma sak.

  385. Men jag skulle ändå
    vilja tillåta mig-

  386. -att utifrån vetenskapens ståndpunkt
    fundera på vad jag tror kan hända.

  387. Då vill jag först säga att vi alltid
    eller under lång tid har jämfört.

  388. Du jämförde din Iphone
    med Olles hjärna.

  389. Innan vi hade Iphone eller datorer
    började vi med andra saker.

  390. Ett tag såg man att hjärnan fungerade
    som en telefonväxel.

  391. För då var det den mest komplicerade
    apparat som man hade byggt.

  392. Och det ligger något i det.

  393. Man kanske inte fångar allt,
    men något.

  394. Sedan tror jag att man har kommit in
    på reglersystem.

  395. Det finns artificiella neuronnät,
    som kanske är på en liknande nivå-

  396. -så länge de är artificiella.
    Men hur är det då med datorn?

  397. Datorn är fantastisk på ett sätt som
    vi nog inte uppskattar till vardags.

  398. Den här fantastiska grejen...

  399. Insikten bakom datorn kom till för
    ungefär 80 år sedan, innan den fanns.

  400. Alan Turing var en av dem som
    var inblandad i att komma på detta:

  401. Om man har en relativt enkel mekanism
    som kan utföra enkla instruktioner-

  402. -och gör rader av instruktioner-

  403. -kan man få den lilla mekanismen
    att göra nästan vad som helst.

  404. Vi har tusentals appar i den här.

  405. Tidigare hade man en räknemaskin,
    en skrivmaskin och en grammofon.

  406. Nu har vi allt i samma, och det gör
    att man måste fundera lite extra.

  407. Det är något annat än telefonväxeln
    och reglersystemet.

  408. Det som jag tror är svårigheten, som
    gör att vi inte har kommit så nära-

  409. -tänkte jag illustrera med en bok.
    Det är en anteckningsbok.

  410. Den är tom.

  411. Jag tänkte att jag med den här skulle
    skapa ett litterärt mästerverk.

  412. Pärmarna är jättebra - högsta
    kvalitet - och papperet också.

  413. Och det som återstår är för mig
    att skriva texten.

  414. Egentligen känner jag mig ganska
    nära, för jag behärskar språket.

  415. Jag har fortfarande lite
    att fundera på-

  416. -men någon gång efter sommaren
    är jag nog där.

  417. Med detta vill jag illustrera
    att datorn-

  418. -utan sitt program är som en tom bok.

  419. Det kan mycket väl gå att programmera
    den till att få generell intelligens.

  420. Men ingen av oss, allra minst vi som
    jobbar med det, har en aning om hur.

  421. Man kan liksom inte underskatta
    den svårigheten-

  422. -lika lite som man kan skapa en roman
    bara man har en fin anteckningsbok.

  423. Men...
    Nu leker jag lite på Olles sida.

  424. "Huset Buddenbrook" finns ju. Någon
    har ju lyckats skriva kända romaner.

  425. Så om vi nu utbildar
    många fler personer i datavetenskap-

  426. -och de skriver jättemånga program-

  427. -får vi väl Olles hjärna
    på ungefär samma tid-

  428. -som det tog för Homo sapiens att ta
    fram Thomas Mann, kanske 30 000 år.

  429. Han skriver "Huset Buddenbrook",
    den perfekta romanen.

  430. Så det händer väl också med datorn?
    - Eller?

  431. Nu är vi väldigt nära metaforen
    med Babels bibliotek. Ska vi ta den?

  432. Ja, det är en jättebra bild-

  433. -för att ha två till synes
    motstridiga intuitioner i huvudet.

  434. Den ena är Turings, som har nämnts.

  435. Turings stora bidrag är att det bara
    finns ett programspråk, en dator.

  436. Visst är de här telefonerna,
    laptoppen och Turings dator olika-

  437. -men de kan simulera varandra, så
    vi kan begränsa oss till en hårdvara-

  438. -och ett programspråk, och på det
    skulle jag kunna skriva alla program.

  439. Mitt första program innehåller bara
    tecknet A. Det gör inget intressant.

  440. Nästa har bara B och så vidare.

  441. Jag fyller ett fiktivt bibliotek,
    som jag kallar Turings bibliotek-

  442. -inspirerat av "Biblioteket i Babel"
    av den eminenta författaren Borges.

  443. Biblioteket innehåller
    alla tänkbara program.

  444. Jag är i rummen med de korta
    programmen med ett till tre tecken.

  445. Först i rummet bredvid hittar man
    programmen som gör något intressant-

  446. -addition, till exempel,
    eller de vänder på en sträng.

  447. Man hittar allt fler nonsensprogram-

  448. -men någonstans står Angry Birds,
    så jag kan ta fram och spela det.

  449. Jag kan ta fram ett annat program,
    som adderar två tal.

  450. Allt rimmar
    med hur vi ser på programmering.

  451. Alla tänkbara program finns
    i detta oändligt stora bibliotek.

  452. Mitt yrke är som en sorts
    bibliotekarie i det här biblioteket.

  453. Jag är datalog och algoritmteoretiker
    med ett taxonomiskt perspektiv.

  454. Jag flyttar runt böckerna-

  455. -så i en sal har vi alla sorterings-
    algoritmer. Dem har vi lite koll på.

  456. Men väldigt många algoritmer är
    oupptäckta eller gör okända saker.

  457. Så jag går runt i förtvivlan
    och försöker få ordning på dem.

  458. Någonstans i det här biblioteket är
    jag säker på att Olles hjärna finns-

  459. -inte som en massa av hjärnväv,
    utan som ett datorprogram.

  460. Om jag matar in det programmet
    i min dator, svarar det på frågor.

  461. Jag kan fråga om perkolationsteori
    och få ett vettigt svar-

  462. -eller om tyskt uttal i högbarock,
    polyfon körmusik.

  463. Då får jag inget vettigt svar.
    Datorn simulerar Olle perfekt.

  464. Jag är säker på att detta är korrekt.

  465. Så när jag säger detta gör jag mig
    till... Vad säger vi på svenska?

  466. Då håller jag med en viss gren
    av filosofin som heter funktionalism.

  467. Den ser inget magiskt i våra hjärnor.

  468. Det är bara en process som i princip
    kan förstås och skrivas ner.

  469. Hjärnan har inget extra
    - ingen ande eller själ-

  470. -som gör att hjärnan fungerar
    på ett annat sätt än en klocka.

  471. Så den tanken kan jag ha i huvudet.
    Terminatorns hjärna finns också där.

  472. Någonstans där inne finns en AI,
    som är lika mycket smartare än Olle-

  473. -som Olle är smartare än byfånen.
    Detta tror jag på.

  474. Det finns alltså ingen anledning
    att tro-

  475. -att evolutionen skulle ha lett fram
    till någon sorts optimal möjlighet-

  476. -av alla möjliga intelligenser.

  477. Just det. Hjärnan är bara en maskin-

  478. -enligt strikt funktionalism - eller
    behaviorism eller instrumentalism...

  479. Och det kan tänkas
    större intelligenser än Olles-

  480. -i den här konfigurationsrymden
    av tänkbara program.

  481. Så det är det maximalt pessimistiska.
    Det finns ett monster i biblioteket.

  482. Och om vi upptäcker det tror jag,
    som Olle, att det är kört.

  483. Då blir vi alla förvandlade till gem.

  484. Eller stimulerade, hyperglada...

  485. Resten av livet blir en lång orgasm,
    för att datorn stimulerar mig.

  486. Inget av det är önskvärt.

  487. Men jag är säker på
    att vi aldrig hittar den boken.

  488. Vi som städar biblioteket varje dag-

  489. -är inte ens i närheten av att hitta
    något som liknar monstret.

  490. För biblioteket växer exponentiellt.
    Det kan man lätt se, för varje...

  491. -Antalet program växer exponentiellt.
    -Biblioteket är fruktansvärt stort.

  492. För att få plats med program
    av Angry Birds längd-

  493. -måste man redan där gå långt över
    det observerbara universum.

  494. Visst, Angry Birds är inte ens
    inom det observerbara universum.

  495. -Så det är jättestort.
    -Tack.

  496. -Men...
    -Vi kommer inte att hitta det.

  497. Så all forskning inom AI
    kan fortsätta.

  498. Det är den pessimismen
    som jag ifrågasätter.

  499. Den grundar sig i min konstanta
    oförmåga att sköta mitt jobb.

  500. Och den delar jag
    med alla mina kollegor.

  501. Vi försöker hitta argument för
    att vissa saker inte kan göras.

  502. Vår oförmåga att hitta algoritmer
    känner jag varje dag.

  503. För det är svårt.

  504. Nu tror jag kanske inte-

  505. -att vår personliga oförmåga
    blir avgörande.

  506. Men...
    Jag skulle vilja fortsätta och säga-

  507. -att jag nog tänker mig
    att utvecklingen kan gå vidare-

  508. -och att vi kan komma att hitta något
    som liknar generell intelligens.

  509. För 200 år sedan kunde man inte
    förutse vad som skulle finnas i dag.

  510. Om vi tänker lika långt framåt har vi
    ingen aning om vad som är möjligt.

  511. Vi vet inget säkert, men det är mer
    en fråga om mjukvara än om hårdvara.

  512. Du sa att du tror att det programmet,
    som är som Olle, finns.

  513. Och det var intressant,
    för jag är inte helt säker på det.

  514. För något som är väldigt tydligt
    för oss människor-

  515. -är ju att vi även har ett
    medvetande, känslor och så vidare.

  516. Det är oklart om datorn skulle kunna
    ha det, ens med ett genialt program.

  517. -Det är väl oklart hur Olle har det?
    -Ja.

  518. Men vi vet att han har det
    - tror vi...

  519. Jag kan intyga det.

  520. Dessutom är det så att det
    har tagits fram av evolutionen.

  521. Så det bör vara väsentligt
    för vårt sätt att fungera.

  522. Jag är osäker på om det går
    att stoppa in i en dator.

  523. Den slutsatsen kanske är förhastad.

  524. Evolutionen har även tagit fram
    blindtarmen och andra onödigheter.

  525. Betecknar du alltså ditt medvetande
    som en blindtarm?

  526. Enligt Dennett kan du lika gärna vara
    en zimbo, en zombie utan medvetande.

  527. Om vi tar bort det
    funkar du nästan lika bra som Olle-

  528. -Men jag vet inte.
    -Inte jag heller.

  529. Jag skulle vilja gå vidare
    med en annan synpunkt på det här.

  530. Du har börjat den här diskussionen
    med att detta är ett möjligt hot.

  531. Jag skulle vilja sätta
    lite perspektiv på hot.

  532. Vi lever redan under
    en massa faktorer - livsförhållanden-

  533. -som våra liv hänger på
    och som vi inte råder över.

  534. Och kanske är det en helt naturlig
    övergång i livets historia-

  535. -som har skett på andra planeter.
    Först var det encelliga djur.

  536. Sedan kom kvastfeningen och sedan en
    varelse som började byggde maskiner-

  537. -och så övergick evolutionen
    till intelligent design.

  538. Det kanske är
    en oundviklig utveckling.

  539. Och i så fall spelar det ingen roll
    om vi försöker stänga in den.

  540. Eller går det att stoppa genom
    att ta militär och stängsel runtom?

  541. Ja, jag vet ju inte svaret.

  542. Men den intressanta arbetshypotesen
    är att vi kan påverka framtiden.

  543. -Annars spelar inget någon roll.
    -Men vi kanske bara kan påverka lite.

  544. De flesta arter som har levt
    har redan dött ut.

  545. Solen kommer att slockna.
    Vi kommer att dö.

  546. Det största hotet är kanske vår egen
    uppblåsta uppfattning om oss själva.

  547. Vi får någon över oss, som alla andra
    på jorden har, tack vare oss.

  548. Ja...

  549. Jag påverkas alltid mycket av böcker.

  550. För ett tag sedan läste jag Olles
    bok, som gjorde mig väldigt oroad.

  551. Nu läser jag på något sätt din onda
    tvilling - eller goda tvilling.

  552. Läs Olles bok.
    Det är en sammanfattning av tankar-

  553. -som finns utspridda i andra böcker,
    som också är läsvärda.

  554. Just på AI-punkten tycker jag att...

  555. Jag ser inte hotet, men skräms
    av allt annat, kanske av okunskap.

  556. -Så jag har fel om just det du kan?
    -Precis. Jag vet inget om biomedicin.

  557. Därför är hotet om ett supervirus,
    som utplånar alla, jätteoroande.

  558. -Men vem är min onda tvilling?
    -David Deutsch.

  559. Han är fysiker inom kvantmekanik
    och kosmologi i Oxford.

  560. Och han är otroligt optimistisk,
    precis din motsats.

  561. Han tror
    att i princip allt kan lösas.

  562. Och vår..."reach"...
    Vad heter det på svenska?

  563. Det som vi kan famna är obegränsat.

  564. Så vi kommer att lämna planeten
    och blir odödliga.

  565. Ja, jag läser mycket sådant,
    och brukar inte tro på det-

  566. -men han fångar mig på något sätt,
    och gör mig uppmärksam på en poäng.

  567. "Vetenskapen kan inte hjälpa oss
    med våra värderingar"-

  568. -stod väl i en av dina bilder?

  569. Jag kanske tycker något annat
    om en månad-

  570. -men hans argument mot det skulle nog
    vara att vetenskapen ÄR en värdering.

  571. Den är en värdering, för att den är
    ett förhållningssätt till sanningen-

  572. -som bland annat är mycket positiv
    och hjälper oss som art.

  573. Vetenskapen rymmer förhållningssätt-

  574. -som på många sätt är motsatsen av
    det som du gör dig till talman för.

  575. Som sagt är jag inte helt klar med
    att formulera det här för mig själv-

  576. -men vetenskapen är det
    som Deutsch kallar optimistisk.

  577. Han definierar "optimistisk" noga.

  578. Men först och främst är vetenskapens
    uppgift inte att hitta på saker-

  579. -utan att förklara saker.

  580. Han säger att om vi någonsin
    kommer så långt-

  581. -att vi utvecklar en stark
    generell artificiell intelligens-

  582. -ur kisel,
    i stället för att få en massa barn.

  583. Det är också ett sätt
    att bli smartare på-

  584. -men vi tänker oss en främmande art,
    som är oss överlägsen.

  585. Om vi någonsin kommer så långt har vi
    också utvecklats på många andra sätt.

  586. Man kan formulera det med motsatsen:

  587. Visst är det rimligt att vara rädd
    för att en AI är superintelligent-

  588. -och har makt att utplåna oss,
    och det händer om det går så långt.

  589. Men Homo sapiens är superintelligent
    och har makt att utplåna oss.

  590. Alla frågor om supersmarta robotar-

  591. -kan vi ställa om existerande
    människor som springer omkring nu-

  592. -och har i princip alla egenskaper
    som AI-robotar.

  593. Dessa människor måste vi fjättra.

  594. Och det är troligen detsamma
    som att fjättra AI.

  595. Så det blir en fråga om
    att operationalisera etiken-

  596. -och hitta ett sätt att
    få reda på vad våra värderingar är.

  597. Då säger han, för han
    är upplysningsfetischist, som jag-

  598. -att det enda som funkar
    är upplysningstidens ideal.

  599. Det har gjorts några försök
    - av atenarna, som dog mot Sparta-

  600. -i Florens under Medici-familjen,
    som dog mot Savonarola-

  601. -en präst som tog över Florens.

  602. Och nu lever vi i en upplysningstid,
    som började på 1600-1700-talet.

  603. Den har grepp om en stor del
    av västvärlden.

  604. Och den kom med en massa värderingar,
    som bland annat det öppna samhället-

  605. -och den vetenskapliga metoden.

  606. Och dem måste vi värna om,
    för då kanske vi klarar oss.

  607. Då hittar vi sätt att kommunicera
    som är stabila och optimistiska.

  608. Och det är på något sätt
    det motsatta.

  609. Det är otroligt framåtriktat-

  610. -medan jag tror
    att du börjar bli lite rädd-

  611. -för ditt eget epistemologi-snack
    om att vi ska sluta.

  612. Jag tycker
    att du missrepresenterar mig lite.

  613. Jag har också läst Deutsch och tycker
    också att han är en stor optimist-

  614. -och han har upplysningstanken,
    där det rullar på.

  615. Det blir något deterministiskt över
    synen att vi kommer att expandera ut.

  616. Jag tror också att det är möjligt-

  617. -men det kräver att vi navigerar rätt
    på vägen dit.

  618. Finemang. Han har ju bilden
    att vi är i en U-båt-

  619. -som är upplysningsprojektet.

  620. Några tror att vi är på ett vanligt
    fartyg och kan öppna fönstret.

  621. Det går inte. Vi måste se till att vi
    sköter det här upplysningsprojektet.

  622. Och det är en massa politiska beslut-

  623. -i frågor om det öppna samhället
    och vad vetenskapen ska vara-

  624. -där vi kan råka öppna ett fönster.

  625. Då kommer även den här upplysningen
    att fallera-

  626. -som i Aten eller Florens.
    Men vi kan också göra saker rätt-

  627. -och Deutsch ger konkreta förslag
    på vad vi kan göra rätt och fel.

  628. Vi har just bevittnat
    ett lärt samtal-

  629. -och jag vill säga att vi står här
    på Vetenskapsfestivalen-

  630. -och representerar akademin
    och den nuvarande sakkunskapen.

  631. Men jag vill understryka-

  632. -att det som vi har gjort här i dag
    är en spekulation.

  633. Det vi säger gör vi
    för att vi tycker om att diskutera.

  634. Det är möjligen intressant, men inte
    för att det ska tas som en sanning.

  635. Vi kanske skulle kunna...

  636. Kanske kan vi inte uttala oss
    på ett vettigt sätt om det här.

  637. I förhållande till den här frågan
    befinner vi oss kanske på medeltiden.

  638. Olle, du är kanske Olle den fromme
    år 2016-

  639. -eller 1016, som just har hållit en
    föreläsning om Guds vilja på jorden.

  640. -Den berömda teologen.
    -Antyder du att jag kanske har fel?

  641. Jag vill bara understryka
    att vi faktiskt inte vet-

  642. -och att detta inte är
    en vetenskaplig diskussion-

  643. -där vi brukar hålla oss
    till det som vi faktiskt vet.

  644. Om man fortsätter att spekulera,
    tycker jag att det verkar orimligt-

  645. -att vi skulle kunna stänga in en
    generell, utvecklad intelligens.

  646. Vad kan vi veta om vad den kommer
    fram till när den har tänkt färdigt?

  647. Och jag tror att det är övermod
    att tro att man kan stänga in den.

  648. Vad ska man göra, då?

  649. Man ska nog inte säga "om du
    inte lyder, drar jag ur sladden".

  650. Det är nog bättre att säga
    "välkommen!".

  651. Vi vet ju inte ens
    om den bryr sig om oss.

  652. Den kanske drar i väg
    till kompisar i en annan dimension.

  653. Nej, man kan nog inte stänga in den-

  654. -och när superintelligensen
    väl är här, förlorar vi kontrollen.

  655. Men det är vi som bestämmer
    begynnelsevillkoren för processen.

  656. Och om vi tänker rätt-

  657. -kan vi förbättra oddsen för att
    den drar i väg i en gynnsam riktning.

  658. Kan inte begynnelsevillkoren
    suddas ut?

  659. Nej, inte nödvändigtvis.

  660. Skulle det vara en sorts ergodicitet-

  661. -så att hur det än startar
    går det mot en och samma...?

  662. Vi skapar Gud, och då kan vi inte
    riktigt veta vad som händer sedan.

  663. Nej, vi kan ju inte veta-

  664. -men vi kan skilja intelligenta
    spekulationer från de ogrundade.

  665. Jag tror att vi måste avrunda.

  666. Så argumentet mot det som Dag sa är:

  667. Om maskinen är superintelligent
    förstår den väl vad människan vill?

  668. Den kan inte göra om mig till ett gem
    eller ge mig en 2 000 år lång orgasm.

  669. Den måste ju förstå våra värden-

  670. -och bygga ett samhälle
    som harmonierar med våra värden.

  671. Det tror jag är korrekt,
    men vi vet inte vad våra värden är.

  672. Jag och någon som bor långt härifrån-

  673. -har helt olika uppfattning
    om vad våra värden är.

  674. Vi som Homo sapiens har ingen aning
    om vad våra värden är.

  675. Så allt kokar ner till att vi måste
    ta reda på vad vi vill med samhället.

  676. Den här nördiga debatten om AI
    blir en debatt om våra värden.

  677. Och det är superintressant.
    Å andra sidan...

  678. ...får diskussionen om att hitta
    de obehagliga konsekvenserna-

  679. -av ett datoriserat samhälle...

  680. Datorer tar inte bara våra jobb.

  681. De skapar också vår digitala
    verklighet, genom Google med mera.

  682. De får reda på var mina
    försäkringsutgifter ska vara.

  683. De kategoriserar och algoritmiserar
    oss och väljer mycket åt oss.

  684. Det gör de med algoritmer som vi
    algoritmteoretiker inte får insyn i.

  685. Jag tycker att alla de besluten
    ska vara föremål för offentlig insyn.

  686. Det är en primitiv utgåva av detta.

  687. Den digitala verkligheten
    vill vi gärna fjättra-

  688. -och i det lilla är det helt rimligt.

  689. Jag tror att...

  690. De värden och tekniker
    som Olle efterlyser-

  691. -för att stoppa en robotapokalyps,
    som jag inte tror på-

  692. -kan hjälpa oss att göra bättre val-

  693. -i de väldigt verkliga Google-
    och Facebook-systemen och andra.

  694. De är i hög grad
    en del av verkligheten - mer och mer.

  695. Det finns naturligtvis en massa
    saker, som vi inte kan tänka ut-

  696. -och inte kan förklara för datorn.

  697. Men när datorn väl finns
    kan den tänka ut det.

  698. Men jag vill att den tar mina värden,
    inte Saudiarabiens eller Kinas.

  699. -Antingen har de eller jag rätt.
    -Den kommer att förstå skillnaden.

  700. Fortsätter den att bygga vilket
    vidrigt, totalitärt system som helst-

  701. -och det är okej? Och samtidigt
    ett Upplysnings-Utopia i Holland?

  702. Jag kan inte säga närmare bestämt
    vad den kommer att göra.

  703. Jag tror att vi måste sluta.
    Vi har gått över tiden.

  704. -Tack ska ni ha.
    -Tack för att ni var med.

  705. Textning: Karin Werge Hjerpe
    www.btistudios.com

Hjälp

Stäng

Skapa klipp

Klippets starttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.

Klippets sluttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.Sluttiden behöver vara efter starttiden.

Bädda in ditt klipp:

Bädda in programmet

Du som arbetar som lärare får bädda in program från UR om programmet ska användas för utbildning. Godkänn användarvillkoren för att fortsätta din inbäddning.

tillbaka

Bädda in programmet

tillbaka

AI och existentiell risk

Produktionsår:
Längd:
Tillgängligt till:

Kommer datorer någonsin att kunna tänka som människor? Olle Häggström har skrivit boken "Here be dragons" om tänkbara scenarier och konsekvenser av framtida teknikgenombrott. Här samtalar han med Thore Husfeldt, professor i datavetenskap och Dag Wedelin, docent i datavetenskap. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Göteborg & Co, Vetenskapsfestivalen och Chalmers tekniska högskola.

Ämnesord:
Artificiell intelligens, Databehandling, Datorer, Teknik, Teknikutveckling
Utbildningsnivå:
Högskola

Alla program i UR Samtiden - Vetenskapsfestivalen 2016

Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Vetenskapsfestivalen 2016

Den medvetna maskinen

Forskningen om artificiell intelligens har pågått sedan mitten av 1900-talet. Hur långt har den kommit? Hur tänker vi om kopplingen mellan avancerad problemlösningsförmåga, intelligens och medvetande? Hur vet vi om en maskin eller varelse är medveten? Vilka frågor står i fokus inför framtiden? Martin Nilsson Jacobi, professor i komplexa system på Chalmers tekniska högskola, inleder med ett föredrag som följs av ett samtal mellan honom och Hans Liljenström, professor vid institutionen för energi och teknik, Sveriges lantbruksuniversitet. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Göteborg & Co, Svenska kyrkan och Agora for biosystems.

Produktionsår:
2016
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Vetenskapsfestivalen 2016

Hjärnvägen hela resan

Fysisk aktivitet är en förutsättning för aktiv hjärnverksamhet, och det gäller hela livet. I detta panelsamtal diskuteras hur vi går vidare så att den numera forskarstödda tesen får genomslag - i skola och undervisning, i arbetsliv och i samhällsfunktioner, i idrott, hela livsresan. Medverkande: Georg Kuhn, professor i regenerativ neurovetenskap, Ingibjörg Jonsdottir, professor i stressmedicin, Anneli Hulthén, tidigare ordförande i kommunstyrelsen i Göteborg, Lina Bunketorp, forskare och fysioterapeut, Anna Iwarsson, författare och folkhälsobildare och Mats Nahlbom, lärare. Moderatorer: Kalle Selander och Thomas Lindén. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Göteborg & Co och Brain Athletics.

Produktionsår:
2016
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Vetenskapsfestivalen 2016

När tekniken tänjer gränser

Genetiken avslöjar både vår historia och möjligheterna att skapa vår framtid. I detta samtal om genetikens vidunderliga möjligheter berörs det som sker nu men också vad som väntar med allt från kloning och genmanipulation till att designa eftersökta egenskaper och reparera foster. Medverkande: Gunnar Bjursell, professor emeritus Karolinska institutet, Karin Wilbe Ramsay, Statens medicinsk-etiska råd, Mikael Kubista, vd Life Genomics och Åsa Torinson Naluai, Göteborgs universitet. Moderator: Torgny Nordin. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Vetenskapsfestivalen, Göteborg & Co och Life Genomics.

Produktionsår:
2016
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Vetenskapsfestivalen 2016

Mindfulness i hjärnan 2016

Åsa Nilsonne, psykiater och professor i medicinsk psykologi, berättar om mindfulness som blivit ett användbart redskap för att förstå hur hjärnan fungerar. Kunskapen om hjärnan accelererar explosionsartat i takt med att metoderna för hjärnavbildning utvecklas och förfinas. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Göteborg & Co och Natur och Kultur.

Produktionsår:
2016
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Vetenskapsfestivalen 2016

AI och existentiell risk

Kommer datorer någonsin att kunna tänka som människor? Olle Häggström har skrivit boken "Here be dragons" om tänkbara scenarier och konsekvenser av framtida teknikgenombrott. Här samtalar han med Thore Husfeldt, professor i datavetenskap och Dag Wedelin, docent i datavetenskap. Inspelat på Göteborgs universitet den 16 april 2016. Arrangörer: Göteborg & Co, Vetenskapsfestivalen och Chalmers tekniska högskola.

Produktionsår:
2016
Utbildningsnivå:
Högskola
Beskrivning

Mer högskola

Spelbarhet:
UR Skola
Längd
Titta UR Samtiden - Flyktingfrågor och antirasism

Antirasistiskt arbete

Panelsamtal om hur man kan bedriva antirasistiskt arbete och hur man bör förändra samhällsinstitutioner så att de inte reproducerar strukturell diskriminering. Varför är vissa grupper underrepresenterade inom vissa institutioner? Hur kan man få syn på och göra något åt diskriminering och rasism på olika institutioner? Medverkande: Ana Marega, Ungdom mot rasism Malmö; Jallow Momodou, European network against racism; Paula Mulinari, forskare vid Malmö högskola och Mujo Halilovic, Romskt informations- och kunskapscenter Malmö. Inspelat den 15 oktober 2015 på Malmö högskola. Arrangör: Malmö högskola.

Spelbarhet:
UR Skola
Längd
Lyssna Bildningsbyrån - sex

Vad behöver man egentligen veta?

Det finns högstadieelever som tror att barn kläcks ur ägg. Andra experimenterar med avancerat sex på webben. Klarar skolans sex- och samlevnadsundervisning av att tillgodose ungdomars enormt skiftande behov av kunskap och vägledning?