Titta

UR Samtiden - Demokrati i en digital era

UR Samtiden - Demokrati i en digital era

Om UR Samtiden - Demokrati i en digital era

Föreläsningar från föreläsningsserien Public Domain and Democracy in the Digital Age vid Uppsala universitet. Internationella forskare diskuterar frågor om lagar och regelverk i den digitala världen. Vad händer när stater och regeringar får konkurrens av privata företag när det gäller att diktera reglerna i den digitala världen? Inspelat den 18-19 september 2014. Arrangör: Uppsala universitet.

Till första programmet

UR Samtiden - Demokrati i en digital era : Risker med big dataDela
  1. Jag ska prata
    om öppna data och big data.

  2. Politiken och ekonomin bakom delning
    av big data. Jag ska fokusera på...

  3. ...återanvändningen
    av personliga data-

  4. -som också är offentliga data-

  5. -eller så kallade öppna data.

  6. Det har naturligtvis att göra med
    att datavetenskapsforskaren-

  7. -har blivit en sexig
    och intressant person.

  8. Först ska jag prata lite om begreppen
    big data och öppna data-

  9. -och så ska jag prata
    om ordet offentlig i "offentlig domän".

  10. Och hur man delar personliga data
    på ett rättvist och nyttigt sätt-

  11. -när det kommer till öppna data
    och allmännyttig information.

  12. Sen ska jag prata om en sak som jag
    tycker i viktigt i det sammanhanget.

  13. Behovet att skydda öppna data-
    mängders integritet och tillgänglighet.

  14. Nånting som ingen pratar om, och som
    bara några dataforskare funderar på.

  15. Sen ska jag även prata om
    monetäriseringen av data-

  16. -och manipulerbarheten hos
    enskilda dataämnen, alltså individer.

  17. Sen hoppas jag
    kunna presentera min...

  18. ...forskningsinriktning,
    där jag studerar distributionen-

  19. -av dataåtkomst
    och åtkomst till slutsatser-

  20. -för det är två olika saker.

  21. Det finns vid det här laget en miljon
    olika definitioner av big data-

  22. -och vi har redan hört talas
    ingående om dem-

  23. -så jag tar det här lite snabbt.

  24. En tanke är att big data
    är data som är övermäktig-

  25. -traditionella och konventionella
    metoder för databasutforskning.

  26. Gartner var först ut med idén-

  27. -om de tre, och senare till
    och med fyra, kriterierna för big data.

  28. En annan sorts volym-

  29. -en annan sorts hastighet-

  30. -samt en enorm
    och annorlunda sorts variation.

  31. Det gäller inte bara
    när man pratar om relationsdatabaser-

  32. -utan även ostrukturerad data,
    som kräver helt andra metoder.

  33. Och slutligen sannfärdigheten,
    det vill säga om datan är tillförlitlig-

  34. -eller pålitlig,
    i det ordets olika bemärkelser.

  35. En intressant sak är MIKE-projektet.

  36. Där hävdas att big data inte handlar om
    storlek, utan om komplexitet.

  37. En hög halt av kombinationer och
    interaktioner inom en datamängd-

  38. -är vad som utmärker big data.

  39. Det är inte storleken,
    utan komplexiteten som gör datan stor.

  40. Microsoft var förstås också
    tvungna att säga nåt om big data.

  41. De pratar om användandet
    av stor datakraft-

  42. -och användandet av artificiell
    intelligens i form av maskinlärning.

  43. Och jag anser att det är ett av
    de viktigaste kriterierna för big data-

  44. -att man behöver
    artificiell intelligens-

  45. -för att få ut nåt av den-

  46. -och att man kan få fram
    en annan sorts kunskap ur datan-

  47. -genom användandet av artificiell
    intelligens. Det är två olika saker.

  48. Och så har vi förstås
    Mayer-Schönberger och Cukier-

  49. -som summerade det hela
    och kom med en enkel definition-

  50. -som egentligen inte säger så mycket.

  51. "Saker som kan göras på stor skala,
    som inte kan göras på liten skala."

  52. Det tjänar som en påminnelse
    om det man sa i MIKE 2.0-projektet.

  53. Big data kan vara väldigt liten-

  54. -och alla stora datamängder
    är inte "big".

  55. Så "big" handlar inte om storlek.

  56. Det här har Judith redan pratat om-

  57. -men jag tycker att det är
    så intressant och viktigt.

  58. Vad gör kvantifiering med oss?

  59. Den här frågan lär bli kvantifierad,
    även om man inte vill det.

  60. Nu till några varningar för big data
    - ingenting nytt.

  61. Jag oroar mig för pseudoreligiösa-

  62. -och utopiska förväntningar
    på big data.

  63. Det är viktigt att inte
    blanda ihop data och information.

  64. Information är ett fundamentalt
    relationsbaserat begrepp.

  65. Data blir bara information-

  66. -i relation till en agent.
    Den är beroende av en agent.

  67. Det beror även på sammanhanget
    som datan och agenten verkar i-

  68. -samt på agentens tajming och
    kunskap. Men det pratar man inte om.

  69. Folk tror att data i en databas som
    ingen tittar på ändå är information.

  70. Jag skulle säga att det är att ta i.

  71. Det får naturligtvis
    enorma konsekvenser.

  72. Stora datamängder
    är vanligtvis förorenade-

  73. -och datan är felaktig och irrelevant,
    och då blir frågan förstås:

  74. Om 80 % är relevant
    och 20 % är relevant-

  75. -och man inte vet vilka 20 % som är
    relevant, så har man ett stort problem.

  76. För att lagra big data
    krävs hårdvara, servrar, kylsystem-

  77. -mjukvaruuppdateringar, säkerhets-
    system och energi. Det är dyrt.

  78. En del tror att big data
    inte kostar nånting-

  79. -och att alla världens problem
    kommer att lösas på ett kick.

  80. Åtkomst till en datamängd,
    och det här är viktigt-

  81. -skapar alltid en möjlighet
    att manipulera datan.

  82. Om personen som utvärderar datan
    inte loggas-

  83. -finns det ingen garanti för att datan
    är densamma som före åtkomsten.

  84. Det är väldigt oroande.

  85. Artificiella processer
    är inte självklara eller objektiva-

  86. -och slutsatserna förblir inte
    nödvändigtvis giltiga-

  87. -även om de var giltiga från början.

  88. Som vanligt beror det på,
    men frågan är vad det beror på.

  89. Datavetenskapen
    är komplex och dess metoder-

  90. -förkunnas och dyrkas,
    men de är relativt nya.

  91. De är banbrytande, men de bjuder
    sällan på kausalitet eller skäl-

  92. -och jag tror inte
    att det inte kan vara problematiskt.

  93. Att tillämpa resultaten
    från sånt som maskininlärning-

  94. -och användandet
    av artificiella neuronnät-

  95. -kräver hårt arbete, och det arbetet
    måste utföras av domänexperter-

  96. -vars kunskap måste användas
    både vid utformningen av databasen-

  97. -och vid tolkningen av slutsatserna.

  98. Det gäller även alla tekniker
    för att dra dessa slutsatser.

  99. Så det som Anderson och till och med
    Schönberger och Cukier sa-

  100. -om att en ökad datamängd
    kommer att radera alla felaktigheter-

  101. -är rena rama skitsnacket.

  102. Och det här är viktigt. Om man
    betänker konsekvenserna av detta-

  103. -och sen tänker på öppna data-

  104. -så blir även öppna data
    väldigt dyra, detaljerade och komplexa.

  105. Jag hittade det här fina citatet.
    Det handlar om smarta hem-

  106. -och om att konsumenterna
    är skeptiska.

  107. Det antyds att vi måste övertygas
    om fördelarna med smarta hem-

  108. -men kanske är vi smartare än så?

  109. Garner, som är analytiker på ett företag
    inom teknologiforskning-

  110. -CCS Insight i London -
    sa en sån fantastisk sak:

  111. "Mycket av denna teknik letar
    fortfarande efter ett problem att lösa."

  112. Och det är nog samma sak
    med öppna data och big data.

  113. Även när det gäller
    beteendestyrd annonsering-

  114. -som också är föremål
    för en nästan religiös dyrkan...

  115. Det är oklart huruvida nåt företag,
    förutom mellanhänderna-

  116. -tjänar mer pengar
    tack vare beteendestyrd annonsering.

  117. Nu ska vi definiera öppna data.

  118. Ordet "öppen" lurar en att tro-

  119. -att det är nåt fantastiskt.
    Den är öppen, så den måste vara bra.

  120. Motsatsord till "öppen"
    är bland annat "stängd".

  121. Alla kan tänka sig situationer när man
    vill att en datamängd ska vara stängd.

  122. Om man vill vara säker på att olika
    forskning gjord på samma data-

  123. -inte har utförts
    på en manipulerad datamängd-

  124. -så måste åtkomsten till den
    vara stängd på nåt sätt.

  125. Så man kan uttrycka det
    som "öppen" i motsats till "begränsad".

  126. I så fall väljer jag helt klart
    en begränsad åtkomst-

  127. -för den första personen
    som får obegränsad åtkomst-

  128. -kan förstöra datamängden
    genom att ändra i den.

  129. Så frågan är vilken sorts begränsning
    man ska använda-

  130. -för att nå målet folk oftast har
    när de pratar om "öppen"?

  131. Öppen och begränsad åtkomst bör
    alltså inte vara varandras motsatser.

  132. När vi pratar om öppna data,
    pratar vi då om universell distribution?

  133. Pratar vi om distributionen
    av själva datan?

  134. När vi har gjort det
    förlorar vi kontrollen.

  135. Folk kan säga
    att de dragit slutsatser från datan-

  136. -men ingen vet
    om det rör sig om samma data.

  137. Okej, då löser vi det problemet genom
    att bara distribuera åtkomst till datan.

  138. Till exempel på villkor att man
    delar med sig av sina slutsatser.

  139. Tänk öppna data, tänk allmän
    information, tänk data som är vår egen.

  140. Data som samlats in med skattemedel,
    och som handlar om oss.

  141. Data som staten en gång sa
    att den behövde för ett visst syfte.

  142. Och nu är den öppen - vem som helst
    kan bygga en affärsmodell på den.

  143. Man skulle kunna distribuera
    åtkomsten på ett rättvist sätt.

  144. Distribuera inte datan, tack.
    Men distribuera åtkomsten rättvist.

  145. Och sen kan man säga, och jag
    återkommer till det, att villkoret är-

  146. -att man delar sina slutsatser
    eller sina slutledningstekniker-

  147. -så att man kan testa dessa slutsatser.

  148. Annars kan folk säga: "Jag jobbade
    med dessa data och drog slutsatsen"-

  149. -"att under dessa förhållanden kommer
    dessa att bli våldsbrottslingar"-

  150. -"eller få nåt slags sjukdom."
    Vi vill kunna testa dessa slutsatser-

  151. -för olika metoder ger olika resultat.

  152. Det är det som är så intressant
    med vetenskapen.

  153. Nu tittar vi
    på The Open Data Handbook.

  154. Jag hittade den här
    fantastiska resursen på internet.

  155. Där summerar de
    definitionen av öppna data.

  156. Det börjar med tillgång och åtkomst.

  157. Datan måste vara tillgänglig i sin
    helhet, och till en rimlig kostnad.

  158. Den ska helst gå att ladda ner från
    internet, och den ska gå att ändra.

  159. Vem som helst
    kan alltså ladda ned datan.

  160. Jag hoppas att jag gjorde klart för er
    att det är väldigt problematiskt.

  161. Åtkomst till datan måste ges
    på villkor som tillåter-

  162. -återanvändning och vidaredistribution,
    inklusive blandning med andra data.

  163. Skrämmande.

  164. Vem ska använda datan, och hur?
    Kan vi se vad de gör med datan?

  165. Om man sammanblandar -
    vilket underbart ord, förresten-

  166. -olika datamängder som alla innehåller
    icke identifierbar information-

  167. -så blir denna information
    identifierbar.

  168. Alla ska kunna använda, återanvända
    och vidaredistribuera datan.

  169. Ingen diskriminering mot vissa
    områden, personer eller grupper.

  170. Inskränkningar som förhindrar
    kommersiellt användande-

  171. -eller begränsningar till vissa syften,
    som till exempel utbildning-

  172. -är inte tillåtna.

  173. Det är mycket oroande, och jag förstår
    att det här är väldigt idealistiskt-

  174. -men det är väldigt farligt.

  175. Nu ska vi ta en titt
    på den Europeiska unionens visdom-

  176. -i det så kallade PSI-direktivet.

  177. Till att börja med...
    Efter ändringen år 2013-

  178. -ålägger direktivet medlemsländerna-

  179. -att se till att vissa typer
    av dokument-

  180. -måste gå att återanvända-

  181. -i kommersiella
    eller icke kommersiella syften.

  182. Det är alltså en förpliktelse.

  183. Detta rör återanvändning av personer
    eller juridiska personer av dokument-

  184. -i offentligt förvar, för kommersiella
    eller icke kommersiella syften-

  185. -undantaget det syfte för vilket
    dokumenten ursprungligen togs fram.

  186. Mina data har insamlats för att
    förhindra fusk med skatter eller bidrag-

  187. -eller liknande, men det innebär inte
    att datan inte används i andra syften.

  188. Skulle man kunna tro, men...

  189. Direktivet påverkar inte
    individens skydd-

  190. -när det gäller
    behandling av personuppgifter.

  191. Så för att gå ett steg längre...

  192. I nån artikel i direktivet står det-

  193. -att när det gäller personliga data-

  194. -så är direktivet inte tillämpligt.

  195. Jag tror att det är väldigt klokt-

  196. -men det försvårar naturligtvis
    saker och ting.

  197. Det finns en del intressanta rättsfall,
    men de tar jag inte upp nu.

  198. När det gäller dataskyddet kräver EU-

  199. -att om man vill behandla
    personuppgifter, oavsett skäl-

  200. -så måste man ha
    en juridisk grund för det.

  201. Det är som ett slags legalitetsprincip
    för alla dataregisteransvariga.

  202. Man får inte behandla personuppgifter
    utan juridisk grund.

  203. En sån juridisk grund
    kallar vi för f-grunden.

  204. Det är inte så snuskigt som det låter.

  205. Denna grund innebär
    att personuppgifterna behandlas-

  206. -på grund av ett legitimt intresse
    hos den dataregisteransvariga.

  207. Man tänker då på en affärsmodell-

  208. -som är helt fokuserad på insamling,
    behandling-

  209. -och exempelvis
    försäljning av personuppgifter.

  210. Det här ger upphov till en del frågor.

  211. Om man vill öppna upp
    såna personuppgifter-

  212. -genom anonymisering, hur
    förhåller sig nåt sånt till f-grunden?

  213. Säg att man vill utnyttja data
    kommersiellt-

  214. -och att man har anonymiserat datan
    så att PSI-direktivet är tillämpligt.

  215. Att man tänker använda
    denna anonymiserade data-

  216. -i ett helt annat syfte...

  217. Är det legitimt?

  218. Det är en intressant fråga,
    för Artikel 29-gruppen har sagt-

  219. -att anonymiseringen i sig
    utgör behandling av personuppgifter.

  220. Så begränsningen med avseende
    på syftet med behandlingen gäller.

  221. Om ens data behandlas
    för ett visst syfte-

  222. -så får man inte behandla dessa data
    om man inte på förhand-

  223. -berättat för denna person
    vad syftet med denna behandling är.

  224. Att dessa data anonymiseras-

  225. -och används för helt andra syften,
    är det en kränkning?

  226. För vi vet ju att det alltid
    går att avanonymisera datan-

  227. -och vi vet även att slutsatserna
    som dras från dessa data-

  228. -kan påverka människor.
    Så jag skulle kunna säga:

  229. "Ni inte får använda mina data"-

  230. -"som jag tvingades ge till er" -
    för det handlar om statliga data-

  231. -"i syfte
    att analysera andra människor."

  232. För det är sånt öppna data används till.

  233. Jag hoppar över den här.

  234. Nu tar vi en snabb titt på ordet
    "allmän" i "allmän domän"-

  235. -för det är ju ämnet
    för denna konferens.

  236. Offentlig kan helt enkelt
    betyda offentlighet-

  237. -med betydelsen transparens,
    nånting alla får se.

  238. Det kan alltså betyda öppenhet.

  239. Men ordet offentlig används även ofta-

  240. -för nåt som är en del av staten.
    Offentlig förvaltning...

  241. ...och offentlig myndighet,
    och då är ordet offentlig-

  242. -starkt förknippat
    med statens myndighetsutövning.

  243. Det är nåt helt annat.

  244. Inom litteraturen om öppna data
    används ordet offentligt ofta-

  245. -i betydelsen gemensamt,
    nånting som borde tillhöra alla-

  246. -eller som faktiskt är allas.

  247. Ungefär som man delar
    icke-rivaliserande varor-

  248. -som luften vi andas och vattnet-

  249. -utanför våra territorialvatten.

  250. Inom kunskapsteorin
    hävdar man ibland-

  251. -att det rör sig om allas egendom,
    och det går inte att dela upp den.

  252. Det är nåt helt annat än de två tidigare
    definitionerna jag har nämnt.

  253. Sen har vi även offentligt
    i betydelsen allmännytta.

  254. Nåt som är viktigt är att allmännyttan
    och offentliga myndigheter-

  255. -eller allmänintresset, uttryckt
    av de offentliga myndigheterna-

  256. -ibland tas för att betyda samma sak.

  257. Men att en offentlig myndighet
    har bestämt-

  258. -att nånting är ett allmänintresse-

  259. -betyder inte att vi måste godta det.
    Vi har rätt att motsäga oss det.

  260. Det är två helt skilda koncept.

  261. Och sen har vi offentligt
    som motsatsord till privat.

  262. Det ligger nära den första definitionen-

  263. -men det är inte samma sak.

  264. Det har ett samband med idén om
    den offentliga sfären i politisk teori-

  265. -i främst Habermas verk från 1962-

  266. -eller med offentlighet
    i ovan nämnd bemärkelse, men...

  267. I många diskussioner
    använder man samma term-

  268. -men sen blandar man ihop begreppen
    i sina argument.

  269. Om man tänker på offentlighet
    som fritt tillgängliga öppna data-

  270. -så tror jag att det får
    allvarliga följder. Det är oroande.

  271. Det är för lätt, och farorna är många.

  272. Om man tänker sig en offentlig domän
    som en offentlig myndighet-

  273. -så handlar det
    om vår stats tillförlitlighet-

  274. -som förvaltare
    av våra personliga data.

  275. Vi vill inte att staten
    ska använda våra personliga data-

  276. -som de begärde av oss
    för ett visst syfte-

  277. -för helt andra syften, och det
    handlar alltid om övervakning.

  278. Det vill säga bidrags- och skattefusk.

  279. Överallt ser man lagstiftning
    där lagstiftaren säger-

  280. -på regeringens uppdrag, naturligtvis -
    att all data som staten redan har-

  281. -kan användas för att upptäcka
    bidrags- eller skattefusk.

  282. Det är väldigt problematiskt, för då kan
    man analysera folk väldigt ingående.

  283. Och jag använder termen
    "förslösandet av våra data".

  284. Vi litar på
    att staten förvaltar våra data-

  285. -och inte bara
    lägger upp dem för försäljning-

  286. -med förevändningen att det kommer
    att lösa alla våra hälsoproblem-

  287. -de kommande hundra åren,
    eller bota världssvälten.

  288. Om man ser offentligt
    som i en gemensam nyttighet-

  289. -så låter det som mycket
    jag har läst om inom öppna data.

  290. Det finns ett holländskt
    Kickstarter-projekt-

  291. -som sysslar med rättvis handel
    med data. Alla får skicka in sina data-

  292. -som de sen
    ska göra fantastiska saker med.

  293. Jag vet inte hur de säkrar sina data-

  294. -men jag förstår deras idealism.

  295. Allmännytta. Frågan är huruvida
    det alltid är bra att dela data.

  296. En del tycks tro det,
    men för vem är det bra?

  297. Och på vilka villkor är det bra?

  298. Och hur delar man på avkastningen
    från slutsatserna av dessa data?

  299. Staten lägger upp massvis med data-

  300. -som vi har betalat för på skattsedeln,
    och så säger de: "Här har ni dem."

  301. "Vi ordnar dem fint i databaser, och så
    kan ni basera era företag på dem."

  302. Det är en bra idé, men så snart
    man börjar tjäna pengar på dem-

  303. -måste man betala tillbaka
    en del av dem.

  304. Om man ser till öppna data
    så kan den offentliga sfären vara-

  305. -ett sätt att skapa ansvarsskyldighet
    för statens handlingar.

  306. Ett annat argument för öppna data.
    "Vi vill veta vilka data staten har"-

  307. -"och huruvida de använder sig
    av evidensbaserad politik"-

  308. -"eller faktabefriad politik."

  309. Vår justitie- och säkerhetsminister-

  310. -sa en gång till en journalist att man
    måste vara väldigt naiv om man tror-

  311. -att faktabefriad politik inte fungerar.

  312. Okej... Vi fortsätter med rättvis och
    laglig delning av personuppgifter.

  313. Jag pratar
    om återanvändning av personuppgifter.

  314. Där måste man ställa
    en rad olika frågor-

  315. -och Judith
    har redan ställt många av dem.

  316. Jag ska bara gå igenom dem snabbt. Vi
    tittar på olika sorters data.

  317. Har datan uttryckligen meddelats?

  318. Har folk medvetet gett dessa data
    till staten, eller har de observerats?

  319. Har man till exempel studerat folks
    klickström på skatteverkets webbplats-

  320. -eller har man använt
    datautvinningstekniker-

  321. -för att dra slutsatser om vilka som
    kommer att bli våldsamma eller vilka...

  322. Jag var på en konferens
    där nån stolt pratade om-

  323. -hur de fick fram samband
    mellan föräldrars alkoholism-

  324. -och senare problem
    med barnens utbildning.

  325. Och allt var konfidentiellt,
    för det var känsliga data.

  326. Så varken föräldrarna
    eller barnen kände till det.

  327. Jag förstår att man inte bara
    slänger ut det på gatan-

  328. -men det oroar mig
    att föräldrarna inte får veta nåt-

  329. -och att barnen tio år senare kan nekas
    anställning på grund av detta.

  330. Vi har transaktionsdata, beteendedata-

  331. -data om kreditvärdighet, hälsodata,
    finansdata, data om etnisk bakgrund...

  332. Vitt skilda saker. Så för att svara på
    frågan om datan ska vara öppen-

  333. -så måste man titta på följderna
    av att göra datan öppen.

  334. Typer av datasubjekt -
    hög eller låg inkomst.

  335. Intressanta studier
    har gjorts av Taylor-

  336. -om hur vi, med våra
    fantastiska dataskyddslagar-

  337. -även om de inte fungerar-

  338. -nu utvinner tredje världens data-

  339. -med förevändningen
    att de kommer att hjälpas av det-

  340. -och att de inte bryr sig om sina data,
    för de har ingen mat.

  341. Vi får använda deras data,
    och de får mat.

  342. En väldigt känslosam förevändning,
    men aningen problematisk.

  343. Pratar vi om datasubjekt
    i en annan jurisdiktion-

  344. -än där datan samlades in eller där
    slutsatserna drogs eller tillämpades?

  345. Vilken utbildningsnivå pratar vi om?

  346. Hur stor är medvetenheten om detta,
    och hur stimuleras medvetenheten?

  347. Pratar vi om konsumenter,
    medborgare, aktivister, prosumenter?

  348. Vilken typ av dataregisteransvariga -
    företag, stater, ideella organisationer?

  349. Öppna PSI-data kommer från staten-

  350. -men medlemsländerna måste öppna
    dem för i stort sett vem som helst.

  351. Typer av sammanhang - pratar vi
    om utbildning, hälsa, religion, handel-

  352. -straffrätt eller livsmedel?
    Det gör en enorm skillnad.

  353. Typer av slutsatser. Är det slutsatser
    om kreditvärderingar, kriminellt uppsåt-

  354. -hälsorisker,
    mobilitet eller produktivitet?

  355. Är slutsatsen deskriptiv,
    prediktiv eller förebyggande?

  356. Följs en prediktiv slutsats av en
    handling man inte får kännedom om-

  357. -så att man inte kan veta varför man
    betedde sig på ett visst sätt sen-

  358. -eftersom man inte känner till
    hur man har blivit påverkad?

  359. Typer av metoder.
    Pratar vi om kluster av slutsatser?

  360. Letar man efter mönster i en databas?

  361. Eller tuktar vi datamängden för att
    vi redan vet vilket resultat vi vill ha?

  362. Vilket slags mervärde pratar vi om?
    Mervärde låter ju underbart.

  363. Man får tårar i ögonen.
    Värde är ju nåt fantastiskt.

  364. Och det är mervärde, dessutom.
    Inte bara vanligt värde.

  365. Men i vissa cirklar
    betyder mervärde monetärt mervärde.

  366. Det är ett mikroekonomiskt begrepp
    för ett värde som läggs till en produkt-

  367. -för att kunna tjäna lite mer pengar.

  368. Mervärden - kommersiella, monetära,
    nationell säkerhet, konsumentskydd-

  369. -ökad prisdiskriminering och ökad
    transparens vid prissättning-

  370. -kostnadsfaktorer, ursprung...

  371. När jag köper en köttbit vill jag
    gärna veta varifrån den kommer.

  372. Jag vill kunna ta reda på
    hur djuret har behandlats.

  373. Förutsebarhet av hälsohot, finansiell
    stadga. Olika sorters mervärde, alltså-

  374. -så att bara slänga ur sig
    att man vill ha mervärde... Okej...

  375. Jag ser faror på två nivåer. Det mest
    uppenbara är återidentifiering.

  376. Sårbarhet för angrepp. Man kan
    hacka databaser, slå ihop dem-

  377. -och få fram
    väldigt ingående detaljer om folk.

  378. Och förövarna kan vara
    individer med onda avsikter-

  379. -främmande makter
    eller terroristorganisationer-

  380. -men även från vår egen stat.
    Det är därför vi har rättssäkerhet.

  381. För att tygla vår egen regering.

  382. Men det andra hotet
    är nåt helt annorlunda.

  383. Okej, man får kunskap
    från den datamängden-

  384. -vilket innebär man med denna
    kunskap, som i stort sett är anonym-

  385. -kan inrikta sig på folk
    på ett väldigt personligt sätt.

  386. Det är alltid
    ett problem med dataskydd.

  387. Man kan avanonymisera datan och dra
    slutsatser om annat än persondata-

  388. -och sen börja utse sina måltavlor. Och
    det kan påverka folks liv mycket mer-

  389. -än att man vet sånt
    som var de bor eller vad de heter.

  390. Det finns naturligtvis fördelar också.

  391. Skräddarsydd hälsovård,
    utbildning, med mera.

  392. Man kan vara
    mer specifik och effektiv-

  393. -när det gäller säkerhet, hälsa,
    livsmedelssäkerhet, infrastruktur-

  394. -energi och trafik.

  395. Det jag oroar mig för är
    det här känslomässiga påståendet-

  396. -att vi måste dela med oss av våra
    personliga data för att få kunskap-

  397. -som kommer att lösa våra problem
    med hälsa, mat, energi och säkerhet.

  398. Det är viktigare än våra grundläggande
    rättigheter. "Visst, du får dem"-

  399. -"men först behöver vi dina data, och vi
    ska göra fantastiska saker med dem."

  400. Jag pratade faktiskt
    med en dataforskare-

  401. -och vi pratade
    om restriktionerna kring hälsodata.

  402. Han sa till mig,
    på ett ganska aggressivt sätt-

  403. -att folk faktiskt dog
    på grund av min inställning.

  404. Han höll mig personligen ansvarig.
    När vi hade pratat lite mer-

  405. -förstod han
    att det inte var så jag menade.

  406. Så big data-aggregeringar
    är ett tveeggat svärd.

  407. Å ena sidan kan anonymisering
    genom aggregering-

  408. -lösa problemet
    med personliga uppgifter.

  409. Men om man å andra sidan tror-

  410. -att det bara är
    att släppa dessa aggregeringar fria...

  411. Spridning av dessa
    möjliggör en återidentifiering.

  412. Mervärde kan inte förutsättas.
    Får man ett mervärde? Det beror på.

  413. Frågan är vad det beror på
    och hur man skapar detta mervärde.

  414. Vi bör inte utgå ifrån att mervärdet
    åsidosätter självbestämmanderätten-

  415. -och vi måste ständigt fråga oss
    vilka som får ta del av mervärdet-

  416. -vad kostnaden för mervärdet blir,
    och vem som står för den.

  417. Ibland kommer det
    hemliga stopp i bildspelet.

  418. Lite om behovet att säkra data-
    mängders integritet och tillgänglighet.

  419. Det handlar om säkerhet, men inte
    bara om skydd av personuppgifter.

  420. Det handlar även
    om integritet och tillgänglighet.

  421. Med integritet avses att datan
    som man placerar i en databas-

  422. -inte kan ändras, och inte heller
    förhållandet mellan olika data.

  423. Men om man låter folk använda datan
    utan att hålla koll på vad de gör-

  424. -så finns det inga garantier.

  425. Så även öppna data måste skyddas
    för att skapa epistemisk tillit.

  426. Och framför allt måste vi få möjlighet
    att bestrida slutsatserna.

  427. Detta för att kunna testa kunskapens
    tillförlitlighet och skälighet.

  428. Men att skydda datamängder
    är inte så lätt som det låter-

  429. -och det fungerar bara om öppna data
    betyder distribution av åtkomst-

  430. -och inte distribution av data,
    för om man distribuerar data-

  431. -så blir det nästan omöjligt att
    kontrollera vad som görs med dem.

  432. Över till möjligheten
    att monetärisera data-

  433. -och möjligheten att manipulera
    vissa bestämda personer.

  434. Viktiga frågor: Monetäriserar vi
    personliga eller anonymiserade data?

  435. Monetäriserar vi själva datan,
    eller monetäriserar vi slutsatserna?

  436. När man läser Artikel 29-gruppens
    utlåtande om anonymiseringstekniker-

  437. -och Artikel 29-gruppen
    är en viktig rådgivande grupp-

  438. -när det gäller juridiska frågor
    om dataskyddet-

  439. -så är den mycket tekniska poängen-

  440. -att anonymiseringen inom big data
    nästan alltid-

  441. -handlar om pseudonymisering. För att
    hävda en fullständig anonymisering-

  442. -måste man tro på sagor.

  443. Kan man inte bestämma att man för att
    få monetärisera data eller slutsatser-

  444. -behöver nåt slags licens, så att man...

  445. När man ger åtkomst
    till företag eller individer-

  446. -så måste de teckna en licens.

  447. Antingen för användandet av
    databasen eller för deras analyser.

  448. Så om de får ett mervärde
    måste de åtminstone-

  449. -berätta hur de skapade detta.

  450. De behöver inte dela sina resultat,
    men de måste lämna det öppet.

  451. Det skulle bli ungefär
    som med immateriella rättigheter.

  452. När det gäller monetäriseringen
    av personliga data kan vi gå tillbaka-

  453. -till rättsfilosofen John Rawls-

  454. -som på 600 sidor
    förklarade sin maximin-princip.

  455. Han hade kunnat göra det på sex sidor,
    men man gillade tjocka böcker då.

  456. Han tog en normativ ställning i frågan
    och sa:

  457. "Vi har en tårta, och alla
    ska få en lika stor del av den."

  458. "Om du lyckas göra tårtan större"-

  459. -"så får du en större andel
    än de andra."

  460. "Det är ditt incitament
    för att göra tårtan större. Men..."

  461. "...den minst gynnade ska aldrig få
    en mindre andel än tidigare."

  462. På så sätt kan man utöka sin andel.

  463. Man har sitt incitament,
    men det skapar fördelar för alla.

  464. Man tar med i beräkningen att folk...

  465. Om man lockar folk att göra tårtan
    större måste de få en större andel-

  466. -men det finns gränser för detta, och
    man måste se till att de lägsta...

  467. De minst gynnade,
    som han kallade dem.

  468. Vad innebär det för öppna data?

  469. Mervärde innebär att man gör
    tårtan större. En enkel definition.

  470. Vinsterna måste delas på ett sätt som
    är kompatibelt med maximin-principen-

  471. -och konkurrensfördelen man hade-

  472. -måste ge andra chansen
    att också göra tårtan större.

  473. Ur sett samhällsperspektiv
    är det önskvärt att tårtan blir större.

  474. Så det är bra att ha som villkor att om
    man hittar ett sätt att förstora tårtan-

  475. -så måste man dela med sig av det.
    Och man får inte glömma-

  476. -externa kostnader,
    för de minskar tårtans storlek.

  477. Manipulerbarheten hos individer.

  478. Jag anser att offentliga
    kunskapsresurser inte ska användas-

  479. -för att få folk att lyda lagen.

  480. Lagen
    är varken administration eller politik.

  481. Om man vill upprätthålla lagen
    ska det vara möjligt att bryta mot den.

  482. Man ska vara tydlig med vad som
    gäller, och man ska göra det öppet.

  483. Man ska inte använda sina slutsatser
    för att påverka folks beteenden.

  484. Beteendeekonomin används nu-

  485. -av politikerna för att få medborgarna
    att göra nånting.

  486. "Vi kan stifta en lag
    som säger vad de ska göra"-

  487. -"men då måste man kolla
    att de verkligen gör det."

  488. "Vi låtsas som om de inte är människor
    och inte har några hjärnor"-

  489. -"och gör det bakvägen i stället."
    Tack och lov fungerar det inte.

  490. Till viss del fungerar det, och nåt sånt
    vill vi inte ha i en demokrati.

  491. Vi vill inte manipulera politiska
    eller religiösa åsikter, livsstilsval-

  492. -eller konsumentpreferenser, så några
    såna affärsmodeller vill vi inte ha.

  493. Affärsmodellerna
    måste alltså vara transparenta.

  494. Och vi vill inte vända på antagandet
    att statistiska extremfall är harmlösa.

  495. Men det har redan diskuterats.

  496. Och det här handlar inte bara
    om epistemisk tillit-

  497. -utan även om epistemisk trovärdighet.
    Vi vill inte att dessa data-

  498. -får stater och andra att föregripa
    bestridandet av hävdad kunskap.

  499. Det kan låta komplicerat, men...

  500. På grundval av dessa slutsatser
    kommer det att hävdas viss kunskap-

  501. -som påstås vara sann, för att datorn
    sa det. "Vi har studerat det i tio år"-

  502. -"så ni kan lita på oss."

  503. Det ska alltid vara möjligt att säga:
    "Så intressant. Visa hur ni gjorde."

  504. "Vilka data använde ni?
    Jag vill kontrollera era resultat."

  505. Man behöver inte kontrollera allt,
    men det måste alltid vara möjligt.

  506. Sen är frågan
    om man vill ha distribution av åtkomst.

  507. Nej, poängen är att vi behöver
    en distribution av dataåtkomst-

  508. -men vi behöver även en distribution
    av åtkomst till slutsatserna-

  509. -för de har mycket större påverkan
    än datan.

  510. Jag ser redan nån som skakar på
    huvudet. Då får vi till en diskussion.

  511. Åtkomstdistribution
    kräver tillitsramverk-

  512. -för att kunna garantera
    tillförlitliga analyser.

  513. Vi behöver åtkomst till rådatan-

  514. -som egentligen inte är så rå-

  515. -till nätverken, alltså sammanlänkad
    data, och till slutsatserna.

  516. Vi behöver en rättvis distribution av
    åtkomsten. Inte bara stora för företag-

  517. -utan det ska finnas plattformar
    där folk kan leka med datan.

  518. Vi behöver en rättvis distribution
    av mervärdet.

  519. Jag menar inte
    att vi ska distribuera det till alla.

  520. Det behövs incitament för att skapa
    mervärde, nåt i stil med maximin.

  521. Och vi behöver bestridbara
    uppskattningar av mervärdet-

  522. -vare sig det gäller en monetär
    allmännytta eller mer personliga data.

  523. De måste gå att bestrida. Om nån
    säger "Ge mig inte några restriktioner"-

  524. -"för jag ska skapa ett fint mervärde"-

  525. -så vill jag veta
    vad mervärdet består av.

  526. "Är det monetärt? Får du vinsten?"

  527. "Gynnar det folkhälsan? Folkhälsan för
    en liten, västerländsk elit, eller...?"

  528. Här kommer min sista bild.

  529. Tack.

  530. Översättning: Mattias R. Andersson
    www.btistudios.com

Hjälp

Stäng

Skapa klipp

Klippets starttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.

Klippets sluttid

Ange tiden som sekunder, mm:ss eller hh:mm:ss.Sluttiden behöver vara efter starttiden.

Bädda in ditt klipp:

Bädda in programmet

Du som arbetar som lärare får bädda in program från UR om programmet ska användas för utbildning. Godkänn användarvillkoren för att fortsätta din inbäddning.

tillbaka

Bädda in programmet

tillbaka

Risker med big data

Produktionsår:
Längd:
Tillgängligt till:

Data- och informationsforskaren Mireille Hildebrandt föreläser om användningen av stora datamängder och öppen data. När företag och organisationer börjar analysera de enorma informationsmängder som människor generar kan det användas till allmänhetens nytta, men det kan också vara integritetskränkande. Är vi slavar under de datamängder som sparats om oss? Inspelat i september 2014. Arrangör: Uppsala universitet.

Ämnen:
Information och media > Internet och digitala medier, Samhällskunskap
Ämnesord:
Big data, IT, Informationssamhället, Informationsteknik, Personlig integritet, Politik, Samhällsvetenskap, Statskunskap
Utbildningsnivå:
Högskola

Alla program i UR Samtiden - Demokrati i en digital era

Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Så används big data

Judith Simon är forskare vid IT-universitetet i Köpenhamn. Hon föreläser här om hur stora dataflöden, så kallad big data, används i skolsystem, i forskning och i syfte att övervaka. Hur vet vi att big data används i goda syften? Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Demokratifrågor på nätet

Peter Dahlgren är professor emeritus på Uppsala universitet och föreläser om hur de sociala nätverken påverkar hur vi kommunicerar och tänker. Han resonerar kring hur internet förändrar oss som människor. Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Att skydda det privata

Bert-Jaap Koops är professor vid Tilburguniversitetet i Nederländerna och föreläser om hur den privata sfären är i upplösning. Hur ser gränserna ut för det privata i den nära framtiden och vilka lagar ska skydda oss när nästan hela vårt privatliv ryms i mobiltelefonen? Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Risker med big data

Data- och informationsforskaren Mireille Hildebrandt föreläser om företags och organisationers användning av big data. Är vi slavar under de datamängder som sparas om oss? Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Rättighetsfrågor på nätet

Sebastian Haunss från universitetet i Bremen föreläser om juridiska utmaningar på nätet när information som film och foton flödar fritt. Han berättar om politiseringen av information i kunskapssamhället och om vilka utmaningarna är att hantera detta i framtiden. Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Staten och datakapitalet

Luciano Floridi är forskare vid universitetet i Oxford och föreläser om faran med att stora insamlade datamängder om användares beteenden på nätet hamnar i kapitalets händer. Han menar att de stora datamängderna, big data, borde vara till allmänhetens nytta. Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Spelbarhet:
UR Skola
Längd:
TittaUR Samtiden - Demokrati i en digital era

Etik i det digitala samhället

Statsvetaren Ben Wagner föreläser om att länders regeringar har allt mindre att säga till om när det gäller etik och yttrandefrihet i det globala, digitala samhället. Det är istället de olika sociala mediernas regelverk som styr. Inspelat i september 2014. Arrangör: Uppsala universitet.

Produktionsår:
2015
Utbildningsnivå:
Högskola
Beskrivning
Visa fler

Mer högskola & information och media

Spelbarhet:
UR Skola
Längd
Titta UR Samtiden - Sant eller falskt - vem bryr sig?

Har sanningen blivit alltmer oviktig när vi skapar våra världsuppfattningar? Är bra och övertygande berättelser viktigare än vad som faktiskt hänt? I denna debatt diskuteras även filterbubblor, myter, faktaresistens och konspirationsteorier. Medverkar gör journalisterna Jack Werner och Anders Mildner, kulturgeografen Maja Essebo och idéhistorikern Svante Nordin. Moderator: Andreas Ekström, journalist. Inspelat den 14 mars 2016 på Akademiska föreningen i Lund. Arrangör: Lunds universitet.

Spelbarhet:
UR Skola
Längd
Lyssna Bildningsbyrån - historia

Lars Johan och Wendela, två tidningspionjärer

Lars Johan Hierta startade Aftonbladet år 1830 och startade därmed en ny epok i svensk presshistoria. 1841 anställde han Wendela Hebbe, den första kvinnliga skribenten med fast anställning