„Dyrektor generalny Anthropic, Dario Amodei, wezwał inne firmy zajmujące się sztuczną inteligencją do przeprowadzenia obowiązkowych testów bezpieczeństwa sieci neuronowych przed ich publicznym udostępnieniem. Bloomberg o tym pisze. „Myślę, że powinniśmy wprowadzić obowiązek testowania, ale ważne jest również, aby bardzo uważać, jak to robimy” – powiedział. Według szefa startupu AI istnieje szereg dobrowolnych zasad bezpieczeństwa, na które zgodziły się duże firmy. Potrzebne są jednak jaśniejsze standardy. „Nie ma nic, co by dało […]„, informuje: businessua.com.ua
Dyrektor generalny Anthropic, Dario Amodei, wezwał inne firmy zajmujące się sztuczną inteligencją do przeprowadzenia obowiązkowych testów bezpieczeństwa sieci neuronowych przed ich publicznym udostępnieniem. Bloomberg o tym pisze.
„Myślę, że że powinniśmy wprowadzić obowiązek testowania, ale ważne jest również, aby bardzo uważać, jak to robimy” – powiedział.
Według szefa startupu AI istnieje szereg dobrowolnych zasad bezpieczeństwa, na które zgodziły się duże firmy. Potrzebne są jednak jaśniejsze standardy.
„Nie ma nic, co mogłoby zweryfikować lub zweryfikować przestrzeganie przepisów przez firmę. Po prostu powiedzieli, że to zrobią” – podkreślił.
Amodei dodał, że start-upy zaczęły przestrzegać zestawu standardów, na które ma wpływ społeczeństwo i pracownicy, ale ostatecznie to nie wystarczy. Jednocześnie wymagania dotyczące badań muszą pozostać „elastyczne”, aby uwzględnić tempo zmian technologicznych.
W listopadzie firma Anthropic udostępniła swoje produkty AI amerykańskim agencjom wywiadowczym i obronnym. Wcześniej na podobny krok zdecydowała się Meta.
Przypomnijmy, że w tym samym miesiącu Amodei ogłosił, że sztuczna inteligencja osiągnie poziom ludzki w 2026 roku.
Źródło