„OpenAI finansuje badania naukowe nad algorytmami zdolnymi do przewidywania ludzkich osądów moralnych. TechCrunch pisze o tym powołując się na oświadczenie złożone do Urzędu Skarbowego. Startup przyznał grant badaczom z Duke University na projekt o nazwie „Badanie moralności AI”. Szczegóły na temat prac są nieliczne, a główny badacz Walter Sinnott-Armstrong odmówił komentarza na temat postępów. Dotacja wygasa w 2025 roku. Wcześniej Sinnott-Armstrong i inna uczestniczka projektu Jana Borg napisali książkę o potencjale sztucznej inteligencji […]„, informuje: businessua.com.ua
OpenAI finansuje badania naukowe nad algorytmami zdolnymi do przewidywania ludzkich osądów moralnych. TechCrunch pisze o tym powołując się na przesłane w IRS oświadczenie
Startup wyróżniony grant dla badaczy z Duke University na projekt o nazwie „Badanie moralności AI”.
Szczegóły na temat prac są nieliczne, a główny badacz Walter Sinnott-Armstrong odmówił komentarza na temat postępów. Dotacja wygasa w 2025 roku.
Wcześniej Sinnott-Armstrong i inna uczestniczka projektu, Jana Borg, napisali książkę o potencjale sztucznej inteligencji jako „wskaźnika moralności”, który pomaga ludziom podejmować bardziej świadome decyzje.
Razem z innymi zespołami stworzyli „moralnie zorientowany” algorytm, który pomaga zdecydować, komu najlepiej oddać nerki. Ocenili także sytuacje, w których ludzie woleliby przekazać proces decyzyjny sztucznej inteligencji.
Celem prac finansowanych przez OpenAI jest wyszkolenie algorytmów do „przewidywania ludzkich osądów moralnych” w sytuacjach powodujących konflikty na polu medycznym, prawnym i biznesowym.
Przypomnijmy, że startup Sama Altmana przygotowuje się do uruchomienia agenta AI o kryptonimie „Operator”.
Źródło