Facebook Suicide Watch: Big Brother Bryr Seg

Dette innlegget er 3 år gammelt. Informasjon i innlegget kan være utdatert.


Foto: Pixabay


Rettferdiggjør et mål midlene brukt for å nå det? Sagt på en annen måte, er det greit å gjøre noe forkastelig eller i gråsonen for å oppnå et hederlig mål? Dette filosofiske spørsmålet er i kjernen av Facebook Suicide Watch.
 

Vurdering av selvmordsrisiko er utfordrende og verktøyene som brukes kritiseres for mangelfull prediksjon av selvmord (1)Runeson, B., Odeberg, J., Pettersson, A., Edbom, T., Adamsson, I. J., & Waern, M. (2017). Instruments for the assessment of suicide risk: A systematic review evaluating the certainty of the evidence. PLoS One, 12(7) doi:http://dx.doi.org.pva.uib.no/10.1371/journal.pone.0180292. Facebook har tilsynelatende tatt samfunnsansvar med tiltaket Facebook Suicide Watch, en algoritme utviklet for å hindre selvmord. Facebook-Gründer Mark Zuckerberg erklærte at algoritmen hadde hjulpet over 100 personer i løpet av den første måneden (2)Doraiswamy, M. P. & Firth-Butterfield, K. (2019, 19. Juni). Can AI algorithms help prevent suicide? Weforum.org. Can AI algorithms help prevent suicide? | World Economic Forum (weforum.org). 

Inn i algoritmens svarte boks 
Algoritmen identifiserer tendenser assosiert med selvskading, ved å skanne bilder og innlegg som brukere legger ut. Først skannes brukerens innlegg og deretter kommentarene på innlegget for å vurdere risikonivået til brukeren (3)Facebook. (2021). Forebygging av selvmord | Helse på nettet (facebook.com). Om en slik tendens blir identifisert blir diverse ressurser gitt til brukeren og spørsmål som «trenger du hjelp?» og «går det bra?» blir sendt til brukeren. Facebooks «empatiteam» blir også varslet for å sende brukeren informasjon om psykisk helse og brukeren får tilbud om å kontakte en hjelpetelefon. Til slutt blir brukerens venner og andre lokale ressurser kontaktet.

Personvern versus emosjonell overvåking
Introduksjonen av algoritmen har naturligvis blitt kritisert. To hovedpoeng som trekkes fram er at brukerne ikke kan velge vekk funksjonen, samt spørsmål om hvilket samtykke som må foreligge for denne formen for overvåking (4)Doraiswamy, M. P. & Firth-Butterfield, K. (2019, 19. Juni). Can AI algorithms help prevent suicide? Weforum.org. Can AI algorithms help prevent suicide? | World Economic Forum (weforum.org). Facebook ser ikke ut til å lansere algoritmen i Europa grunnet det de hevder er for «strenge regler for personvern» (5)Teknologirådet & datatilsynet. (2018). Personvern 2018 – Tillit og følelser. Personvern 2018 – Tillit og følelser – Teknologirådet (teknologiradet.no). S.14.

Algoritmer har derimot tatt mer og mer plass i hverdagen. De velger innholdet og reklamene brukerne ser på nettsider som Facebook. Dette gjøres ved hjelp av brukerens netthistorikk. Sosialpsykologen Shoshana Zuboff hevder blant annet at Googles algoritmer «can infer and deduce the thoughts, feelings, intentions, and interests of individuals … irrespective of a person’s awareness, knowledge, and concent …» (6)Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Profile books LTD. S.80-81. Om dette stemmer vil Googles algoritmer ikke bare kunne anta sinnstilstanden for øyeblikket, men også hvilken sinnstilstand vedkommende var i flere år tilbake. På godt og vondt glemmer algoritmene ikke. 

Konsekvensene av dette er mangfoldig ettersom samme datasett kan benyttes på flere måter ved et senere tidspunkt. Et eksempel er hvordan Google benyttet datasett for å forbedre søkemotoren til å skreddersy reklame (7)Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Profile books LTD. S.77-78. Det er uvisst hvordan dataen Facebook Suicide Watch samler inn kan brukes. En rapport fra teknologirådet og datatilsynet fra 2018 belyser emosjonell overvåking fra en annen side. Den peker på hvordan algoritmer har blitt benyttet på skoler og kontor for å se hvordan individene gjennomfører sine oppgaver for å imøtekomme dem på en bedre måte (8)Teknologirådet & datatilsynet. (2018). Personvern 2018 – Tillit og følelser. Personvern 2018 – Tillit og følelser – Teknologirådet (teknologiradet.no). S.14-15. Dette kan være positivt fordi elever og arbeidstakere får bedre tilrettelagte oppgaver, men samme datasett kan også brukes på andre måter. Eksempelvis hevdes det at diverse firma ikke utsteder lån på bakgrunn av hva en har publisert på Twitter og antagelser av døgnrytme på grunn av internett og mobilbruk (9)Pasquale, F. (2020). New laws of robotics: Defending human expertise in the age of AI. Belknap Press. S. 132.. 

Facebook har tilsynelatende tatt samfunnsansvar
Facebook gir lite informasjon om hvordan Facebook Suicide Watch fungerer. En av grunnene til dette kan være at algoritmen bygger på Random Forest rammeverket som baserer seg på maskinlæring med minimal menneskelig input. Dr. Steven Schlozman kritiserer Facebook Suicide Watch i et intervju med CNN da algoritmen ikke holder samme etiske standard som annen forskning på mental helse (10)Howard, J. (2019, 12. februar). Facebooks screens posts for suicide risk, and health experts have concerns. CNN.com. Experts question Facebook’s suicide prevention efforts – CNN. Videre er Facebook en privat bedrift som ikke behøver å overføre sine funn til andre, noe de heller ikke har gjort. Statlige aktører som US Deparment of Veterans Affairs utvikler for øyeblikket lignende algoritmer (11)Molteni. M. (2017, 17. Mars). Artificial Intelligence Is Learning to Predict and Prevent Suicide. Wired.com. Facebook Isn’t the Only One Working on Artificial Intelligence for Suicide Prevention | WIRED.  Om plattformen ønsker å redusere antall selvmord slik de selv sier (12)Facebook. (2021). Forebygging av selvmord | Helse på nettet (facebook.com) burde de kanskje gå i mer dialog med statlige aktører og forskere istedenfor å hemmeligholde teknologien.   

Øyet som alltid stirrer
Selv opplever jeg min apati rundt algoritmene som mer urovekkende en HAL i 2001: A Space Odyssey. Jeg har akseptert at algoritmer og lignende teknologi overvåker meg og min aktivitet på internett. Gevinsten av dette er jo videoer og reklamer jeg vil like og klikke på. Jeg blir ikke plaget av de automatiserte systemene som velger hvilke impulser jeg får i hverdagen. Enda et øye som stirrer fra skjermen føles ikke inngripende i min private sfære.  

Rettferdiggjør et mål midlene brukt for å nå det? Kanskje, kanskje ikke. Jeg vil derimot påstå at algoritmer har utviklet seg fra å være midler til premisser i debatten om mental helse.   

Dette innlegget er 3 år gammelt. Informasjon i innlegget kan være utdatert.

Referanseliste[+]