Facebook gaat kunstmatige intelligentie (AI) gebruiken om te achterhalen of gebruikers mogelijk suïcidale gedachten hebben. Zodra algoritmen boodschappen markeren die daar mogelijk op duiden, wordt een menselijke moderator gewaarschuwd. Die kan vervolgens hulp organiseren.
De dienst is de afgelopen maand getest in de Verenigde Staten en zou al in honderd gevallen alarm hebben geslagen, aldus Facebook-oprichter Mark Zuckerberg in een post. Of dit ook heeft geleid tot het voorkomen van zelfdoding wordt niet duidelijk.
De dienst komt overigens niet in Europa beschikbaar, omdat privacywetgeving bedrijven hier verbiedt data van gebruikers te analyseren op potentieel gevaar van zelfdoding.
Facebook laat weinig los over de variabelen waarnaar de kunstmatig intelligente software kijkt. De software is getraind met eerdere berichten die op het sociale medium zijn gepost. Een redacteur van technologiesite TechCrunch vroeg Facebook hoe het wil voorkomen dat misbruik wordt gemaakt van alle verzamelde gevoelige informatie - via 'emotietargeting' bijvoorbeeld - maar daarop geeft het bedrijf vooralsnog geen antwoord.
Bron: De Morgen, 28/11/'17
https://www.demorgen.be/technologie...entie-bcb83cc0/
Mening: Ik vind het een prachtig initiatief van Facebook om suïcidale gedachten te detecteren op basis van berichten die je plaatst, omdat zelfdoding een universeel probleem is. In Vlaanderen zijn er namelijk in 2014 1.066 mensen overleden door suïcide. Dit komt neer op bijna 3 gevallen van zelfdoding PER DAG! Nog straffer is het feit dat het Vlaamse suïcidecijfer 1,5 keer hoger ligt dan het EU-gemiddelde (cijfers onderzoek Zelfmoordlijn uit 2014).
Ik vind het onbegrijpelijk dat men dit plan gaat uitwerken in heel de wereld, behalve in de Europese Unie. En waarom, wel, omdat dit project in strijd gaat met de GDPR-wetgeving (privacywetten). Dit is toch belachelijk, want als Facebook dit plan goed uitwerkt, kunnen vele mensenlevens gered worden. En een mensenleven gaat toch boven alles...!?