Az OpenAI biztonsági és védelmi bizottságát egy független „igazgatótanácsi felügyelőbizottsággá” alakítja át, amely biztonsági aggályok miatt jogosult a ChatGPT modellbemutatóinak késleltetésére - derül ki az OpenAI blogbejegyzéséből. A bizottság a független bizottság létrehozására vonatkozó ajánlást az OpenAI „biztonsággal és védelemmel kapcsolatos folyamatainak és biztosítékainak” közelmúltbeli, 90 napos felülvizsgálata után tette.
A bizottságot, amelynek elnöke Zico Kolter, tagjai Adam D'Angelo, Paul Nakasone és Nicole Seligman, „a vállalat vezetése tájékoztatja majd a nagyobb modellkiadások biztonsági értékeléséről, és a teljes igazgatótanáccsal együtt felügyeli majd a modellbevezetéseket, beleértve azt a jogkört is, hogy a biztonsági aggályok orvoslásáig elhalassza a kiadást” - írja az OpenAI. Az OpenAI teljes igazgatótanácsa is „rendszeres tájékoztatást” fog kapni „biztonsági és védelmi kérdésekről”.
Az OpenAI biztonsági bizottságának tagjai egyben a vállalat szélesebb körű igazgatótanácsának is tagjai, így nem világos, hogy a bizottság valójában mennyire független, illetve, hogy ez a függetlenség hogyan épül fel. (Sam Altman vezérigazgató korábban tagja volt a bizottságnak, de már nem az.)
Úgy tűnik, hogy az OpenAI a független biztonsági bizottság létrehozásával némileg hasonló megközelítést alkalmaz, mint a Meta Felügyeleti Testülete, amely felülvizsgálja a Meta egyes tartalompolitikai döntéseit, és olyan döntéseket hozhat, amelyeket a Meta köteles követni. Az Oversight Board egyik tagja sem tagja a Meta igazgatótanácsának.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!