Accions

Software: màquines decidint per persones 15-2-2016/apunts

De teixidora

Cicle: L'era digital: una mirada crítica

Biblioteca Sant Gervasi - Joan Maragall

http://w110.bcn.cat/portal/site/Biblioteques/menuitem.bf428a7b1724144fa0c5a0c5a2ef8a0c/?vgnextoid=4d2c49e9ad872510VgnVCM1000001947900aRCRD&vgnextfmt=formatDetall&vgnextchannel=f5432c4f9bbd5410VgnVCM1000001947900aRCRD&lang=ca_ES

Vegeu apunts de la sessió anterior a > https://public.etherpad-mozilla.org/p/eradigital1f

Apunts de la segona sessió 15 de febrer de 2016

'L'era digital: una mirada crítica. Software: màquines decidint per persones', a càrrec de Ramón Sangüesa @ramonsang  i Andreu Belsunces @AndreuIII

Si us plau, completeu els apunts i afegiu-hi +referències

Separar softwares i hardware no té gaire sentit, i pensar en persones i tecnologies com a coses separades tampoc.

El software impregna totes les àrees deles societats contemporànies.  Enel disseny de les màquines es pensa amb l’usuari, l’experiència que volen quetinguem, les interfícies i en el software invisible, les linies de codi deprogramació, les quals també responen a una serie d’interessos.

Frase d’Oscar Wilde: "Tot el treball no-intel.lectual, tot el treball monòton i gris, tot el treball relacionat amb coses horribles i condicions desagradables, ha de ser realtizat permaquinària”.

La tecnologia és part de la realitat quevivim avui en dia, i es presenta com una cosa que ens fa la vida millor,  per exemple camions que buiden les escombraries,...

Hi ha la “tecnologia que elimina elshumans”: “Les màquines sempre estan satisfetes amb les condicions de treball imai demanen salaris mésa alts”, Revista fortune 1946.

Posant més maquines es va debiitar elmoviment obrer,  controlant lesmàquines podras subjugar més els treballadors.

Article al the atlantic, full time worker arran estudio univesritat d’oxford 20 ptofssion s que desapareixaran. Carters,supermercats, periodistes, 

fulltimeworker no vol dir contracte indefinit 

En l’àmbit digital the taskrabbit economy– no tens contracte freelance total – task rabit – corrent com un conill perpillar lo que caigui – http://prospect.org/article/task-rabbit-economy

Uber tambe és estar a la que salta quesurti un client, en el sentit d’optimitzar no sé ben bé què, molt a discutir – Interessanttenir en compte conferències sobre treball digital Trebor Scholz  – The New School http://blogs.newschool.edu/news/2014/11/digital-labor-conference/#.VsI0FsfMzFI

Control, comunicació, gestió,representació, simulació, anàlisi, presa de decisions, memoria, visió, escritpturai interacció.

Emojis, com una cosa que ens ve de natural és tan limitador, les paraules per sort encara no estan homgenitzades

Software = representació

Representació = dades + processos

Evolució = de la repetició a l’autonomia 

Els programes creiem que han de tenir autonomia, poden prendre decisions per a nosaltres i tenen la capacitat d’anar aprenent quan han de prendre decisions i com prendre-les.

Google à paradigma d’Intel.ligencia artificial, de crear ens inteligens autònoms, 

Exemple- on us busquen una informació és repetititu, per exemple: eDreams – buscador de viatges 

En canvi els cotxes de google amb pilot automàtic, que no necessita conductor, combinen software i hardware.

Agent Properties – un agent és un ens amb capacitat de prendre decisions

(hem manllevat el discurs sobre actors i agencia de teories sociològiques)

que un sensor reconegui l’entorn, amb unes instruccions per entendre el món, i a partir d’aquí pugui anar evolucionant.

Nicholas Carr (Periodista opiniologo) 

Els organs sensorials van recollint informació (com els nostres sentits)

Una sèrie de protocols – per la info que el cotxe reb

Un sistema de feedback perquè les màquines puguin aprendre 

La màquina aprèn, sap que si va recte xocarà,  apren per girar. 

El feedback és una idea antiga, de tecnolgia militar.  Aquesta part de feedback pot estar més o menys desenvolupada- programen mecanismes de retro-alimentació.

Hi ha un estat del món, i anem veient com està , si s’ajusta al que hauria de ser, i la part d’aprenentatge determina quines de les accions que he aplicat, han funcionat.

Per exemple, les fixies, bicis dels hipsters sense marxes, de color blau ;)  els hipsters  no posen el peu a terra, van endavant endarrera, el cotxe de google que es troba el hipster sobre la fixie, no sap si el ciclista va endavant o endarrere.

Tot i que hem aconseguit sistemes d’autonomia encara estem dins de... interpretar una realitat física a vegades és difícil

Un altre exemple, conduint de nit, un gos del veí, decidió de donar cop de volant o no.

La capacitat de decidir més ràpid pot plantejar problemes seriosos. Decidir faig un xoc frontal o atropello algú.

Mediació de tercers a través del software i el hardware – si aquest cotxe pren unes decisions i atropella algú, de qui és la responsabilitat? El programador, el que va fer la tasca d’aperenentage del cotxe? És un sensor que ha fallat? El responsable pot ser el productor del sensor?

Tesi doctoral: "responsabilidad civil en el caso de agentes inteligentes".

Video – Alpha dog –https://www.youtube.com/watch?v=VHqbbCOpmUQ

una mula militar – la seva missió és portar carrega pels militars – Fet per boston dynamics (una deirvada del MIT) –empresa que ha comprat google.

Una part de la mateixa recerca, amb el mateix enfoc d’aprenentatge, tenen representacions mínimes, van aprenent de l’observació de l’entorn

Ex. Virtual Wall a Vaccum cleaners.

L’interessant no es q només tenim un software, tenim sistemes multiagent- petits codis que interactuen

Mapa de les depuradores d’aigues residuals de catalunya – diverses conques controlades amb inteligencia artificial,solució de problemes on cada un va aprenent de la situació local de cada secció de la conca, i el sistema va aprenent de manera general, a partir del coneixement dels enginyers locals, què passa amb al carrera professional d’aquestes persones, el seu coneixement és un punt de partida. Et trobes amb situacions estranyes on persones al cap de 6 mesos no volen parlar més, perquè senten que la seva feina perd importància.

A “Her” la peli, https://ca.wikipedia.org/wiki/Her_(pel·l%C3%ADcula) la màquina es torna tant intel·ligent que s’acaba enamorant d’un altre sistema operatiu.

Si els sistemes autònoms van aprenent poden tenir consequiencies tràgiques:

Black Monday – how the flash crash echoedblack monday http://www.wsj.com/articles/SB10001424052748704314904575250602626326346

En 10 minuts la borsa es va volatitzar,may 6 2010, interacció catastròfoica entre sistemes. Amb High frequency trading– el trader només dóna els objectius que ha de complir aquell software amb els diners que té. Desapareix el valor de la borsa.

Idea de la caixa negra, els algoritmes van aprenent autònomament, i al final la màquina ja no sap ni com funciona. Efecte agregat on s’augmenta la velocitat en què es treballa. La gent busca immobles a la vora dels servidors per tenir-hi les màquines, + velocitat, pugen els lloguers locals.

Drons voladors, que van a buscar persones,una quinzena per detectar un camí i petjades recents – resolen col.laborativament un programa.

Peli – del Tom Cruise – Oblivion?¿?¿? https://es.wikipedia.org/wiki/Oblivion_(pel%C3%ADcula_de_2013)

multitud de software, alguns en forma de drons i altres no, que aprenen i resolen problemes col.lectivament 

Però, aquí encara som nosaltres qui programem –

El naixement d’un llenguatge –  Luc Steels http://www.upf.edu/enoticies/1415/0547.html#.VsI5m8fMzFI– iCrea – robots que estan creant el seu pròpi llenguatge, the origin of language, perquè siguin autònoms, - vídeo – fan una acció i apunten, generen els 0 i 1, fins que s’entenen. 

Out of Control – concepte de sistema distribuit que apren per si sol i va creixent, ecosistemes de pensament biològic, un llibre de divulgació amb moltes pretencions de ser visionari –llibre de Kevin Kelly – http://kk.org/mt-files/books-mt/ooc-mf.pdf

Frase al + Humans – “la tecnologia utilitza els humans per a reproduir-se”

Hi ha un grup de gent que ha decidit que deixem de fer software repetitiu, que sigui auto aprenent.

Hi ha gent, com Stephen  Hawking, Elon Musk i Bill Gates – warn about artifical intelligence – http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-warn-about-artificial-intelligence/ Ens diuen que els sistemes distribuits inteligents son perillosos. Perquè? No treballen a google, google es una empresa d’intelligencia artifical, no d’internet, la cerca que ofereix google és només una forma d’aconseguir dades, i de tenir exemples i d’entrenar intel.ligencia articifial.

Stop discrimination by computer AlessandroAcquisti, Price Discrimination, Privacy Technologies, … http://isr.uci.edu/pep06/papers/PEP06_Acquisti.pdf

La base de tot aprenentatge son dues operacions: posar nom i escriure 

Ens han dit que aquesta cadira es vermella,que això altre també ho és, i finalment hem creat una classe, creem jerarquies,després les posem en comú, algunes venen donades per la cultura, altres les anem negociant. Operacions que ara poden fer els ordinadors, quan generalitzes tens molta cosa guanyada, si algu es un objecte vermell pots esperar moltes coses, si un es consumidor compulsiu, li pots vendre moltes coses...

En un moment donat aquests ordinadors poden classificar, categoritzar, perfilar, ...

Sheriff- detecting price discrimination – http://sheriff.dynu.com/views/home una eina que demostra que gràcies que t’han classificat d’una manera per on ets i per com t’has comportat et posen unpreu o un altre 

Obfuscation -  a users guide for privacy and protests - Finn Brunton  and Helen Nissenbaum. https://mitpress.mit.edu/books/obfuscation

Utitlitzant sherif pots veure si et discriminen, i veus els diferents preus 

Conjunt de variables inacabable que han anat desenvolupant amb el temps, sistema operatiu, lloc,  - es un tipus de discriminació, també passa a els supermercats d’un barri o d’un altre o si et veuen pinta de guiri o de local...

Discriminació – el software, el que fa és que com algù l’ha programat es comporta com un barero de xiringuito de costa,de les multiples opcions que hem escollit és no donar feines per raons racistes,prejudicis discutibles.

L’unic que dic (Ramon) és que està passant. S’està buscant com fer alghoritmes d’aprenentage justos. Què és “justos’?  fair algorithms ... 

The clustering of America – infos que es reculllen, Michael J. Weiss – surten classificacions tipus elite suburbs,rustic living, ....

Alexis Kleinman – a partir dels teus postsa facebook veien el teu comportament i s’utilitza a recursos humans,extraversion, openness, agreableness, neorticism, conscientiousness http://www.huffingtonpost.com/2014/06/12/facebook-five-labs_n_5485489.html

El fet q l’empresa tingui o no dret a accedir a aquestes dades es una questió moral, legal? Ja estem donant permís quan posem el tick als terms and conditions , és virtualment imposssible saber.Hi ha una discussió – digital bridges safe harbour?  Acords a mb eeuu i la UE, no hi ha la mateixa visió filosòfica... 

https://en.wikipedia.org/wiki/International_Safe_Harbor_Privacy_Principles

Tracking the Trackers – Anne Helmond andCarolin Gerlitz. https://wiki.digitalmethods.net/Dmi/DmiWinterSchool2012TrackingTheTrackers

El tracking porta el profiling – amb elque recullen ens classifiquen. El tracking és el que ens diuen allò de “haentendido usted lo de las cookies”? i van acumulant informació.

Trackejar – és un negoci en si, recullen les dades – les apps gratis venen infrormació a altres empreses, 

How the way you type can shatter anonymity– even on Tor How the way you type can shatter anonymity 

La manera com escrivim ens delata la identitat,la ‘anonimitat’ no existeix...

Insurance company now offers discounts –if you let it track your Fitbit –

Empreses d’assegurances que et regalen unfitbit perquè estiguis més saludable, si no ets saludable et pugen la prima.

Quan els cotxes estiguin connectats a internet també sabran qui ha tingut la culpa d’un accident, com conduies...

Mircosoft ha fet un acord milionari amb empreses d’assegurances. https://www.microsoft.com/enterprise/industry/financial-services/insurance/solution.aspx#fbid=Y-YBl2ZU_ay

Anem incorporant la idea de “t’has de cuidar a tu mateix” això esta vinculat al desmembrament de l’estat del benenstar,hi ha maneres de gestionar-nos que abans ens ajudava l’estat, però l’estat va reculant – Evgeny Morozov- hi haurà un moment que les empreses de tracking seran les que ens diguin com hem de governar-nos. 

Això és una manera de pensar de molta gent de Silicon Valley (veurem l’últim dia)

Unfit bits – http://www.unfitbits.com  - un cas d’apropiació - mesures per hackejar els bits -  fer que el fitbit et doni bons resultats.

Softwares que ens posen les condicions de com comportar-nos.

Regulant els algoritmes facebook va fer una prova per demostrar que podien influir el teu estat d’anim en funció de quins posts dels teus amics veus o no.

Quan diem que això s’ha de discutir, es que s’ha de discutir. Pq ens està marcant.

Com a tecnòleg (Ramon) m’he de decalrar culpable de la voluntat de resoltre el problema, com més difícil millor, les ganes de solucionar el problema fa que ni et pensis les consequencies del que fas... 

Algú del públic - > Potser la culpa no és del software sino del sistema, i potser seria més interssant buscar les coses positives. 

Ramon – ja però estem en un entorn on totes el que es parla de la tecnologia és positiu  i no es així i el que és interessant ara és parlar d’això

New Web – gent que esta fora del sistema google – que funcionen en arees no visibles – és una zona autònoma fora de la vigilancia algoritmica d’aquests grans actors que el que volen al final és buscar pasta! 

Per explorar: European digital rights https://edri.org  

La propera sessió –  l’usuari com a sensor – avui hem vistformes de control tou, i veurem formes de control més expeditives, pq sembla qhi ha una tendencia de canvi...

Lo que està anunciat pel 29 es farà el 14 de març 

Aquí teniu unes quantes referències per centrar el tema d'avui
Referencies “Software Decidint per nosaltres”
  • Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Jan. 5, 2015)
  • Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1 (2014) (with Danielle Citron)
  • Julia Angwin "Dragnet Nation" http://juliaangwin.com/books/

Sobre el que parlem avui teniu algunes referències introductories en articles que he publicat:

Una serie d’articles fet per la periodista Julian Angwin (Molt Recomanable el seu llibre “Dragnet Nations”) i Ashkan Soltani (fins fa poc el director tènic de la Federal Trade Comiision i també fins fa poc Director en Cap de Dades a la casa Blanca  (abans de marxar per no ser-li concedit l'acces de màxima seguretat: http://arstechnica.com/tech-policy/2016/02/researcher-who-helped-write-snowden-stories-cant-get-white-house-clearance/)

•        Alessandro Acquisti, Why Privacy Matters (Jun 2013)

•        Alessandro Acquisti, Ralph Gross, Fred Stutzman, Faces of Facebook: Privacy in the Age of Augmented Reality (Aug. 4, 2011)

•        Alessandro Acquisti, Price Discrimination, Privacy Technologies, and User Acceptance (2006)

•        Phil Agre, Your Face Is Not a Bar Code: Arguments Against Automatic Face Recognition in Public Places

•        danah boyd, Networked Privacy (2012)

•        David Burnham, The Rise of the Computer State (1983)

•        Julie E. Cohen, Power/play: Discussion of Configuring the Networked Self, 6 Jerusalem Rev. Legal Stud. 137-149 (2012)

•        Julie E. Cohen, Julie E. Cohen, Configuring the Networked Self: Law, Code, and the Play of Everyday Practice (New Haven, Conn.: Yale University Press 2012)

•        Julie E. Cohen, Privacy, Visibility, Transparency, and Exposure (2008)

•        Ed Felten, David G Robinson, Harlan Yu & William P Zeller, Government Data and the Invisible Hand, 11 Yale Journal of Law & Technology (2009) 160

•        A Michael Froomkin, The Death of Privacy, 52 Stanford Law Review (2000)  1461 

DO NO TRACK AND ONLINE BEHAVIOURAL TRACKING

•        "Your Privacy Online: What They Know", The Wall Street Journal, July-November 2010

•        "The Do Not Track List and the Law of Unintended Consequences", Marc Roth, E-Commerce Times, October 16, 2010 

•        "Lawmaker Introduces Online Do Not Track Bill", Grant Gross, PCWorld, February 11, 2011 

•        "California Do Not Track Bill Moves Forward", Gavin Clarke, The Register, May 4, 2011 

•        Online Behavioral Tracking," Electronic Frontier Foundation

•        "Do Not Track Explained," 33 Bits of Entropy, September 20, 2010

Un cas que ahir no varem tenir temps de commentar (drons I machine learning)