A YouTube körülbelül egy hónapja kezdte el pedzegetni, hogy a jövőben még keményebben és hatékonyabban igyekszik majd fellépni az olyan tartalmakkal szemben, melyeknél felmerülhet, hogy terroristákhoz vagy terrorizmushoz kapcsolódnak. Ezen kívül szakértők bevonásával tervezik felügyelni az olyan anyagokat, melyek ugyan nem sértik meg közvetlenül az oldal felhasználási feltételeit, azonban tartalmuk legalábbis vitatható.
Most a YouTube kicsit bővebben is részletezte, hogyan igyekszik majd megoldani mindenzt. Az egyértelműnek tűnik, hogy komolyan támaszkodnak a gépi tanulásra, így egyre több gyanús tartalmat tudnak majd felismerni, elemezni és eltávolítani automatikus módon. Korábban ez inkább a gépi és emberi munka keveréke volt, azonban a Google mostanában kezdte el hadrendbe állítani a legújabb fejlesztésű gépi tanulásos technológiáját, amivel az egész folyamat sokkal hatékonyabbá és gyorsabbá tehető: az elmúlt hónapban az eltávolított szélsőséges tartalmak 75%-át még azelőtt sikerült levenni az oldalról, hogy egyetlen bejelentést is tettek volna a felhasználók.
A gépi tanulás nem csak a sebesség tekintetében hoz előrelépést, hanem a pontosságban is. Habár ez korábban nem mindig volt tökéletes, a rendszer folyamatosan fejlődik, és most már azt tapasztalják, hogy pontosabban képes jelenteni a ténylegesen szélsőséges és eltávolítandó tartalmakat, mint az emberek. Ráadásul úgy tűnik, hogy a technológia nagyon jól képes skálázódni is a YouTube-ra felkerülő egyre több tartalommal: a Google kiemelte, hogy több mint 400 órányi tartalom kerül fel a rendszerbe minden egyes percben, így egy modern gépi tanulásos rendszer nélkül gyakorlatilag lehetetlen lenne lépést tartani, így azonban már az első hónapban megduplázódott az eltávolított videók száma.
De persze az emberi tényezőt sosem lehet kizárni, így a YouTube kiemelte, hogy a továbbiakban még nagyobb számban terveznek felvenni szakértőket, akik folyamatosan átnézik és fejlesztik majd a cég tartalmakra vonatkozó szabályzatát, és segítenek betartatni azokat. Ezen kívül további tizenöt civil szervezettel és intézménnyel alakítottak ki partneri kapcsolatot, melyek mindegyike kiemelt szakértő a maga területén. Ezek olyan komplex és érzékeny témákban adnak majd segítséget, mint a gyűlöletbeszéd, a radikalizáció. A YouTube azt reméli, hogy így hatékonyabban tudják majd felismerni azokat a tartalmakat, amiket például a szélsőséges csoportok készítenek, hogy újabb tagokat toborozzanak.
A felbővített szakértői gárda lép akcióba akkor is, amikor olyan videók kerülnek elő, melyeket a felhasználók jelentettek és nem illegálisak ugyan, viszont lehetséges, hogy megsértik a YouTube felhasználási feltételeit. Ha az elemzés után kiderül, hogy mégsem sértik a feltételeket, azonban erősen visszás faji vagy valássi felsőbbrendűségi tartalmakat találni bennük, akkor betehetik őket egyfajta limbóba. Fent maradnak ugyan a YouTube-on, azonban a rendszer nem fogja ajánlani őket, nem lehet velük pénzt keresni, de kommenteket sem lehet majd fűzni hozzájuk.
Úgy látszik, hogy a YouTube nem csak a tartalmak utólagos elemzésére és esetleges eltávolítására koncentrálna, hanem a megelőzésre, edukálásra is. Így hamarosan elkezdenek bevezetni egy olyan rendszert, hogy ha a felhasználó bizonyos érzékeny kulcsszavakra keres rá, akkor az oldal elirányítja őt egy kurátorok által összeállított lejátszási listához, ahol szakértők igyekeznek elmagyarázni, hitelteleníteni és megcáfolni a külbönző szélsősges és terrorista üzenetek.
Végül pedig a YouTube bejelentette, hogy a Creators for Change program keretében nemrég rendeztek egy kétnapos workshopot az Egyesült Királyságban és Indonéziában, kifejezetten tinédzserek számára, ahol arról igyekeznek oktatni őket, hogyan tudják biztonságosabban és felelősségteljesen használni az internetet, illetve kiemelik számukra a diverzitás, a pluralizmus és a tolerancia fontosságát. A YouTube ígérete szerint hamarosan ezt a programot méginkább kiterjesztik.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!