Het Prisoner's dilemma is een intrigerend concept- eigenlijk een theorie voor een gameprobleem. Stel: twee bendeleden worden aangehouden. Elk van hen wordt in een aparte ruimte ondervraagd. Tijdens die ondervraging krijgen zij het aanbod: hun medegevangene verraden en in vrijheid gesteld worden. Maar als ook de ander op het aanbod ingaat, dan krijgen ze beiden een zwaardere straf dan wanneer zij het zwijgen bewaard hadden. Tijdens het experiment / game, moeten de spelers kiezen tussen wat hen allebei ten goede komt, of enkel henzelf. En meestal kiezen zij dan voor wederzijds voordeel.
Maar zou dat ook zo zijn in de wereld van artificiële intelligentie, vroegen wetenschappers van de Universiteit van Mannheim Business School zich af. Zij ontwikkelden een simulatie van het dilemma, testten het uit op GPT. GPT speelde daarna het game met een mens. En daaruit bleek dat GPT, meer dan wij dat zelf doen, verwachten dat mensen dezelfde beslissing nemen in beider belang.
Wat, om een grote stap verder te gaan, zou kunnen betekenen dat GPT ons kan helpen om beslissingen te nemen waarbij verschillende belangen vermengd zijn. De aanleg van straten bijvoorbeeld, waar voetgangers, fietsers, personenwagens en zwaar verkeer elkaar kruisen. Een interessant artikel hierover bij The Next web.
https://thenextweb.com/news/prisoners-dilemma-ai-more-cooper ...
|