U digitalnom okruženju prepunom rizika, veštačka inteligencija postaje ključni alat za zaštitu dece na internetu. Istražujemo globalne primere, istraživanja i etičke dileme koje prate ovu tehnologiju.
U 21. veku, detinjstvo se više ne odvija isključivo na igralištima, već i na ekranima. Deca provode sate dnevno na internetu – igrajući igrice, učeći, komunicirajući. Iako tehnologija otvara vrata znanju i kreativnosti, ona istovremeno donosi ozbiljne rizike: cyberbullying, online predatori, izloženost neprimerenom sadržaju i digitalna manipulacija.
U toj složenoj stvarnosti, veštačka inteligencija (AI) sve češće ulazi u ulogu zaštitnika – ali samo pod uslovom da se koristi pažljivo, etički i uz odgovarajući nadzor.
AI u prvoj liniji odbrane
Na platformama poput YouTube Kids i TikTok, AI algoritmi automatski prepoznaju i uklanjaju sadržaje koji nisu primereni za decu, uz pomoć mašinskog učenja i kompjuterskog vida. Međutim, kako ističe dr. Hany Farid, profesor digitalne forenzike na UC Berkeley i pionir u borbi protiv dečije eksploatacije na mreži, „algoritmi su moćni, ali ne nepogrešivi – potrebna im je stalna ljudska kontrola i prilagođavanje.“
Na edukativnim platformama kao što su Khan Academy i Google for Education, AI se koristi za detekciju potencijalno nasilne komunikacije među učenicima i obaveštavanje nastavnika, u skladu s pravilima o privatnosti.
Bihejvioralna analitika: pomoć ili ulazak u privatnost?
Napredniji sistemi koriste bihejvioralnu analitiku za prepoznavanje uzoraka koji mogu ukazivati na rizična ponašanja – uključujući depresiju, anksioznost ili izloženost zlostavljanju. Na primer, kompanija Bark Technologies koristi AI za praćenje poruka, mejlova i online aktivnosti kako bi upozorila roditelje na potencijalno štetne situacije.
No, koliko daleko treba ići?
dr. Sonia Livingstone, profesorka psihologije na London School of Economics i vodeća istraživačica u oblasti digitalnih prava dece, upozorava:
„Deca imaju pravo na bezbednost, ali i na privatnost. Balans između zaštite i kontrole je tanak, a AI sistemi često prelaze granicu bez dovoljne transparentnosti.“
Pravna osnova – i praznine
U Evropi, Digital Services Act (DSA) i General Data Protection Regulation (GDPR) postavljaju osnovu za odgovorno korišćenje AI u zaštiti podataka dece. U Sjedinjenim Državama, Children’s Online Privacy Protection Act (COPPA) štiti mlađe od 13 godina, ograničavajući prikupljanje podataka.
Međutim, AI tehnologije se razvijaju brže od zakona. Studija UNICEF-a iz 2021. godine upozorava da „globalna zakonodavna infrastruktura ne prati razvoj automatizovanog odlučivanja koje direktno utiče na živote dece“.
AI alati u rukama roditelja – uz oprez
Roditelji danas mogu koristiti razne aplikacije koje koriste AI, poput Qustodio, Net Nanny i već pomenutog Bark, koje nude detaljan uvid u online aktivnosti dece, ali i preporuke za preventivne mere.
Međutim, istraživanje OECD-a pokazuje da roditelji često nisu dovoljno edukovani o tome kako AI funkcioniše, što može dovesti do preteranog nadzora i narušavanja poverenja između roditelja i dece.
Globalna preporuka: AI uz ljudsku etiku
U nedavnom izveštaju UNESCO-a iz 2023. godine, navodi se da „AI u zaštiti dece mora biti razvijana u skladu s principima ljudskih prava, transparentnosti i uz aktivno učešće deteta u procesima donošenja odluka koje ih se tiču“.
Organizacije poput 5Rights Foundation i Center for Humane Technology zalažu se za uvođenje tzv. etike dizajna, gde se proizvodi i algoritmi razvijaju uzimajući u obzir uzrast, kognitivni razvoj i pravo deteta na privatnost.
Zaključak: AI nije čuvar – ali može biti saveznik
Veštačka inteligencija nije zamena za roditeljstvo, obrazovni sistem ili zakon. Ali uz jasna pravila, etički dizajn i međusektorsku saradnju, može postati moćan saveznik u stvaranju digitalnog sveta u kojem deca nisu samo korisnici – već bezbedni, poštovani i slobodni učesnici.
Kao što je dr. Farid zaključio na Svetskom forumu o digitalnoj bezbednosti dece:
„AI može pomoći. Ali mora služiti detetu, a ne tržištu.“
Autor: Olivera Krčadinac
