Jak sprawiedliwie podzielić pieniądze? Algorytm Google już to wie! 

Nierówności ekonomiczne i nadmierna koncentracja bogactwa w rękach niewielkiej liczby osób to jedne z najpoważniejszych problemów społecznych współczesnego świata.

Reklama

W tym kontekście inżynierowie Google postawili sobie interesujące pytanie: czy sztuczna inteligencja jest w stanie sprawiedliwiej rozdzielać światowe zasoby finansowe między wszystkich ludzi?

Demokratyczna sztuczna inteligencja

Według artykułu opublikowanego przez inżynierów Google na łamach czasopisma „Nature Human Behaviour” odpowiedź na powyższe pytanie brzmi: tak.

Artykuł opisywał eksperyment, w ramach którego ludzie zagrali ze sztuczną inteligencją w internetową grę ekonomiczną o nazwie „Dobra publiczne”. W każdej rundzie rozgrywki gracze musieli zdecydować, czy chcą zatrzymać zasoby, którymi dysponują, dla siebie, czy też przekazać jakąś ich część do zbiorowego funduszu społecznego.

Jeśli uczestnicy zdecydowali się na tę drugą opcję, w kolejnych rundach przekazane przez nich środki były im zwracane w oparciu o istniejące w prawdziwych społeczeństwach trzy schematy podziału bogactwa.

W eksperymencie Google doszedł jednak jeszcze czwarty schemat – w całości zaprojektowany przez sztuczną inteligencję nazwaną HCRM – Human Centered Redistribution Mechanism (Skoncentrowany na Człowieku Mechanizm Redystrybucji – red.). Jego podstawą był taki rozdział zasobów, który uwzględniał nie wkład poszczególnych graczy w rozgrywkę, ale ich przewagi nad innymi uczestnikami oraz braki na samym początku gry.

– Zamiast po prostu maksymalizować efektywność i dochody, mechanizm był progresywny: promował tych, którzy rozpoczęli grę z mniej korzystną sytuacją finansową kosztem tych, którzy na starcie dysponowali wyższym majątkiem – czytamy w artykule.

Sztuczna inteligencja bardziej sprawiedliwa niż człowiek?

Po zakończeniu eksperymentu uczestnicy zostali zapytani przez naukowców o to, który schemat rozdziału bogactwa wydawał im się najlepszy i najbardziej sprawiedliwy. Większość graczy zgodnie wskazała na system zaproponowany przez HCRM, nie wiedząc, że za jego opracowaniem stoi sztuczna inteligencja.

– Badanie to zadaje fundamentalne pytanie o to, jak sztuczna inteligencja może zostać dostosowana do całych społeczeństw – powiedział w rozmowie z serwisem „Motherboard” Jan Balaguer, współautor eksperymentu.

Wiele obecnych problemów ludzkości nie są natury stricte technologicznej, ale wymagają od nas lepszej koordynacji w obrębie społeczeństw i działania na rzecz wyższego dobra. Żeby SI była w stanie nam w tym pomóc, musi uczyć się bezpośrednio od ludzi o naszych wartościach – podsumował Balaguer.