Serviciile de protecție a copiilor pentru a utiliza AI, date mari pentru a prezice abuzurile asupra copiilor

Vă rugăm să împărtășiți această poveste!
Pre-criminalitatea este dusă la o nouă extremă pentru a elimina situațiile de abuz asupra copiilor, dar pentru a ajunge acolo, milioane de cetățeni vor suferi abuzuri de confidențialitate. Se comercializează un fel de abuz pentru altul? Într-adevăr, tehnocrații au creat o furtună de foc etică. ⁃ Editor TN

Într-o epocă de austeritate și un climat de teamă în privința abuzului asupra copiilor, poate nu este surprinzător faptul că asistenții sociali au apelat la noi tehnologii pentru ajutor.

Autoritățile locale - care se confruntă cerere în spirală și un deficit de finanțare de 800m în lire sterline - încep să se întrebe dacă datele mari ar putea ajuta la identificarea copiilor vulnerabili.

Un program de calculator ar putea semnala o familie cu probleme, să identifice o posibilă victimă și să prevină un alt Baby P sau Victoria Climbié?

Cu ani în urmă, astfel de întrebări ar fi fost chestii de știință-ficțiune; acum sunt lucrurile de fapt ale științei.

Bristol este un singur loc în care se experimentează cu aceste noi capacități și se înțelege cu întrebările morale și etice care vin cu ele.

Gary Davies, care supraveghează sistemul de predicție al consiliului, poate vedea avantajele.

El susține că aceasta nu înseamnă a scoate oamenii din procesul decizional; mai degrabă înseamnă să folosești date pentru a opri omul să facă greșeli.

„Nu spune că vei fi exploatat sexual sau vei lipsi”, spune Davies. „Demonstrează caracteristicile comportamentale ale exploatării sau dispariției. Semnalizează acest risc și vulnerabilitate. ”

Asemenea tehnici au funcționat în alte domenii de ani buni. Sistemele de învățare a mașinilor construite pentru minarea unor cantități masive de date personale au fost folosite de mult pentru a prezice comportamentul clienților în sectorul privat.

Programele de calculator evaluează cât de probabil avem un credit implicit sau cât de mult riscăm pentru un furnizor de asigurări.

Designerii unui model predictiv trebuie să identifice o „variabilă de rezultat”, ceea ce indică prezența factorului pe care încearcă să-l prezice.

Pentru protecția copilului, acesta ar putea fi un copil care intră în sistemul de îngrijire.

Apoi încearcă să identifice caracteristicile frecvent întâlnite la copiii care intră în sistemul de îngrijire. După identificarea acestora, modelul poate fi rulat pe seturi de date mari pentru a găsi alți indivizi care au aceleași caracteristici.

The Guardian a obținut detalii despre toți indicatorii predictivi luați în considerare pentru includerea în sistemul de salvgardare a copilului consiliului Thurrock. Acestea includ istoric de abuzuri domestice, infracțiuni în rândul tinerilor și intimidare.

Indicatori mai surprinzătoare, cum ar fi restanțele de chirie și datele privind sănătatea, au fost inițial luate în considerare, dar excluse din modelul final. În cazul atât Thurrock, un consiliu din Essex, cât și orașul Hackney din Londra, familiile pot fi semnalate lucrătorilor sociali ca potențiali candidați la programul Familii cu probleme. Prin această schemă, consiliile primesc subvenții de la guvernul central pentru ajutorarea gospodăriilor cu dificultăți pe termen lung, precum șomajul.

Astfel de sisteme ridică, în mod inevitabil, probleme de confidențialitate. Wajid Shafiq, directorul executiv al Xantura, compania care furnizează lucrări de analiză predictivă atât Thurrock, cât și Hackney, insistă asupra faptului că există un echilibru între drepturile de confidențialitate și utilizarea tehnologiei pentru a furniza un bun public.

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile