Az OpenAI, a Microsoft, a Google és az Anthropic egy olyan fórumot hoznak létre, amelynek célja, hogy támogassa a biztonságos és felelős AI-fejlesztéseket. Összehangolják a biztonsági kutatásokat és a legjobb gyakorlatokat, főleg az olyan AI-modelleknél, amelyek túlmutatnak a jelenleg létezők képességein.
Minderre azért van szükség, mert olyan sokoldalú és sokat ígérő modellekről van szó, amely iparági vezetők szerint komoly kockázatot jelent a közbiztonságra is. Ezeket a technológiákat ugyan sok mindenre fel lehet használni, de az USA, az EU és sok AI-vezető attól tartanak, hogy igen komoly kockázatokat rejtenek, ezért mielőbbi szabályozásokat sürgetnek. Kanada szerint pedig lehangoló, hogy mire használják az emberek az AI-t (várható módon zsarolásra, csalásra, átverésre, adatlopásra).
A Microsoft elnöke szerint az AI-t fejlesztő cégek felelősségre biztosítani, hogy a technológia biztonságos és emberi irányítás alatt marad. A fórum a hatóságokkal és szakemberekkel is együtt dolgozik majd, információkat is megoszt – de lobbitevékenységet nem végez.
Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!