OpenAI heeft een adviesgroep opgericht die aanbevelingen moet doen voor de veiligheid van de evolutie van de AI. Die organisatie zal boven de technische teams staan, en moet het risico op een schadelijke AI tegengaan.
De adviesgroep zal zijn aanbevelingen rechtstreeks doorgeven aan het beheer van OpenAI, waarbij de bestuursraad van OpenAI toch een vetorecht gekregen heeft om bepaalde suggesties te blokkeren.
OpenAI heeft ook zijn "Preparedness Framework" een update gegeven, met als doel een duidelijk pad uit te stippelen voor een beleid om nefaste risico's die mogelijk vervat zijn in de modellen die het ontwikkelt, op te sporen, te ontleden, en te beslissen wat ermee gedaan moet worden.
Wellicht vage termen, maar het toont alvast dat OpenAI nadenkt over de toekomst.
https://techcrunch.com/2023/12/18/openai-buffs-safety-team-a ...
|