Een experiment dat toch wel een beetje spannend geweest moet zijn. IN een document heeft OpenAI bekendgemaakt dat het de Alignment Research Center groep toegang gegeven heeft tot verschillende versies van GPT-4. Die onderzoeksgroep moest dan onderzoeken of de AI snode complexe plannen kon smeden, kopieën van zichzelf kon maken, bronnen kon in beslag nemen, zichzelf op een server verbergen, en phishing aanvallen kon uitvoeren.
En gelukkig: de ARC onderzoeksgroep stelde vast dat GPT-4 op dat gebied niet effectief was. Wat de AI echter wel kon doen, was een medewerker van TaskRabbit (een online marktplaats voor freelance jobs) overtuigen om een CAPTCHA op te lossen. Daarbij loog de AI erover of hij een robot was of niet.
Een interessant artikel daarover bij Ars Technica.
https://arstechnica.com/information-technology/2023/03/opena ...
|