Podjęto wpsólną współpracę w zakresie bezpieczeństwa sztucznej inteligencji
Najważniejsze kraje i organizacje, takie jak Chiny, Stany Zjednoczone i Unia Europejska, zgodziły się na współpracę w dziedzinie bezpieczeństwa sztucznej inteligencji.
Deklaracja Bletchley, podpisana podczas brytyjskiego szczytu poświęconego bezpieczeństwu sztucznej inteligencji, jest dokumentem określającym wspólną linię myślenia w zakresie rozwoju sztucznej inteligencji, mającą na celu zapewnienie jej bezpiecznego postępu.
Chiny i Stany Zjednoczone zdecydowały się na współpracę z co najmniej 25 innymi krajami w celu minimalizacji ryzyka związanego z dalszym rozwojem sztucznej inteligencji.
Te dwa kraje, wraz z innymi państwami, w tym Unią Europejską, Australią, Indiami, Niemcami i Francją, podpisały porozumienie, znaną jako Deklaracja Bletchley, podczas brytyjskiego szczytu poświęconego bezpieczeństwu sztucznej inteligencji. Dokument ten ma na celu opracowanie wspólnej strategii nadzorowania rozwoju sztucznej inteligencji i zapewnienia, że technologia ta rozwija się w sposób bezpieczny.
Nazwa porozumienia nawiązuje do miejsca w Londynie, które było siedzibą ekspertów od łamania kodów podczas Drugiej Wojny Światowej. Podczas szczytu, na którym zawarto to porozumienie, wzięli udział różni przywódcy polityczni i dyrektorzy generalni firm technologicznych, w tym Elon Musk i Sam Altman z OpenAI.
Deklaracja Bletchley zachęca państwa sygnatariuszy do podejmowania dwóch ogólnych działań w celu kontrolowania ryzyka wynikającego z rozwoju sztucznej inteligencji, takiego jak potencjalne zagrożenia związane z bronią jądrową, chemiczną lub biologiczną, które mogą wyniknąć z postępu w dziedzinie sztucznej inteligencji.
Pierwsze podejście zakłada identyfikację obszarów wspólnych obaw dotyczących bezpieczeństwa sztucznej inteligencji i opracowanie wspólnego, opartego na nauce i dowodach, zrozumienia tych zagrożeń.
Kiedy takie zrozumienie zostanie osiągnięte, kraje sygnatariusze będą oceniać rozwijające się możliwości sztucznej inteligencji na podstawie osiągniętego zrozumienia, aby ocenić wpływ nowych zdolności sztucznej inteligencji na społeczeństwo jako całość.
Drugie podejście polega na opracowywaniu odpowiednich, opartych na ryzyku polityk w poszczególnych krajach-sygnatariuszach w celu zapewnienia bezpieczeństwa w obliczu potencjalnych zagrożeń, przy jednoczesnym uznaniu, że indywidualne podejścia mogą się różnić w zależności od krajowych okoliczności i odpowiednich ram prawnych.
To drugie podejście obejmuje również zwiększoną przejrzystość działań prywatnych podmiotów rozwijających frontierowe zdolności sztucznej inteligencji, stosowanie odpowiednich metryk oceny, narzędzi do testowania bezpieczeństwa oraz rozwijanie odpowiednich zdolności sektora publicznego i badań naukowych.
Wcześniej, w maju, setki liderów przemysłu technologicznego, naukowców i innych osobistości publicznych podpisały otwarty list, ostrzegając przed potencjalnymi skrajnymi zagrożeniami wynikającymi z rozwoju sztucznej inteligencji i wzywając do nadania kontroli nad tą technologią najwyższego priorytetu na szczeblu globalnym.
W ciągu tego tygodnia firma OpenAI, twórca ChatGPT, ogłosiła, że tworzy zespół mający na celu zapobieżenie uruchomieniu przez tzw. frontierowe modele sztucznej inteligencji wojny nuklearnej i innych potencjalnych zagrożeń.
Również administracja prezydenta Joe Bidena, w tym tygodniu, wydała oczekiwane od dawna rozporządzenie wykonawcze, które określa jasne zasady i środki nadzoru w celu zapewnienia odpowiedniej kontroli nad rozwojem sztucznej inteligencji, jednocześnie umożliwiając jej dalszy rozwój.