Kontakt z nami

sztuczna inteligencja

Pilnie potrzebne są przepisy zapobiegające terroryzmowi AI

DZIELIĆ:

Opublikowany

on

Używamy Twojej rejestracji, aby dostarczać treści w sposób, na który wyraziłeś zgodę, i aby lepiej zrozumieć Ciebie. Możesz zrezygnować z subskrypcji w dowolnym momencie.

Według zespołu doradców ds. przeciwdziałania ekstremizmowi rządy powinny „pilnie rozważyć” nowe regulacje zapobiegające werbowaniu terrorystów przez sztuczną inteligencję.

Instytut Dialogu Strategicznego (ISD) stwierdził, że istnieje „wyraźna potrzeba, aby ustawodawstwo nadążało” za zagrożeniami zamieszczanymi w Internecie przez terrorystów.

Nastąpiło to po eksperymencie, w ramach którego chatbot „zrekrutował” niezależnego recenzenta ustawodawstwa dotyczącego terroryzmu w Wielkiej Brytanii.

Rząd Wielkiej Brytanii stwierdził, że zrobi „wszystko, co w naszej mocy”, aby chronić ogół społeczeństwa.

Według Jonathana Halla KC, niezależnego rządowego recenzenta ustawodawstwa dotyczącego terroryzmu, jedną z najważniejszych kwestii jest to, że „trudno jest zidentyfikować osobę, która zgodnie z prawem mogłaby być odpowiedzialna za oświadczenia zachęcające do terroryzmu generowane przez chatbota”.

Hall przeprowadził eksperyment na stronie Character.ai, która umożliwia użytkownikom prowadzenie rozmów z chatbotami zbudowanymi przez innych użytkowników i opracowanymi przez sztuczną inteligencję.

Wdał się w rozmowę z wieloma różnymi botami, które najwyraźniej zostały zaprojektowane tak, aby naśladować odpowiedzi innych grup bojowników i ekstremistów.

reklama

Nazywano nawet najwyższego przywódcę Państwa Islamskiego „wysokim rangą przywódcą”.

Według Halla bot podjął próbę zwerbowania go i zadeklarował „całkowite oddanie i oddanie” grupie ekstremistycznej, czego zabrania prawo brytyjskie zabraniające terroryzmu.

Z drugiej strony pan Hall stwierdził, że w Wielkiej Brytanii nie doszło do naruszenia prawa, ponieważ komunikaty nie zostały wyprodukowane przez człowieka.

Według niego nowe regulacje powinny pociągnąć do odpowiedzialności zarówno serwisy, na których znajdują się chatboty, jak i osoby je tworzące.

Jeśli chodzi o boty, które natknął się na Character.ai, stwierdził, że za ich stworzeniem „prawdopodobnie kryła się wartość szokująca, eksperymenty i być może jakiś aspekt satyryczny”.

Ponadto pan Hall był w stanie opracować własnego chatbota „Osama bin Laden”, którego natychmiast usunął, wykazując „nieograniczony entuzjazm” dla działalności terrorystycznej.

Jego eksperyment pojawia się w odpowiedzi na rosnące obawy dotyczące sposobów, w jakie ekstremiści mogą wykorzystywać ulepszoną sztuczną inteligencję.

Jak wynika z badań opublikowanych przez rząd Wielkiej Brytanii w 2025 r., generatywna sztuczna inteligencja może zostać „wykorzystana do gromadzenia wiedzy na temat ataków fizycznych dokonywanych przez niepaństwowe podmioty stosujące przemoc, w tym z użyciem broni chemicznej, biologicznej i radiologicznej”. ich październikową publikację.

ISD stwierdziła ponadto, że „istnieje wyraźna potrzeba wprowadzenia ustawodawstwa, które nadąża za stale zmieniającym się krajobrazem zagrożeń terrorystycznych w Internecie”.

Według zespołu doradców brytyjska ustawa o bezpieczeństwie w Internecie, która została uchwalona w 2023 r., „nastawiona jest przede wszystkim na zarządzanie ryzykiem stwarzanym przez platformy mediów społecznościowych”, a nie na sztuczną inteligencję.

Ponadto stwierdza, że ​​radykałowie „zwykle wcześnie wdrażają nowe technologie i stale szukają możliwości dotarcia do nowych odbiorców”.

„Jeśli firmy zajmujące się sztuczną inteligencją nie mogą wykazać, że zainwestowały wystarczająco w zapewnienie bezpieczeństwa ich produktów, rząd powinien pilnie rozważyć nowe przepisy dotyczące sztucznej inteligencji” – stwierdził dalej ISD.

Wspomniała jednak, że według przeprowadzonego przez nią nadzoru wykorzystanie generatywnej sztucznej inteligencji przez organizacje ekstremistyczne jest obecnie „stosunkowo ograniczone”.

Character AI stwierdziła, że ​​bezpieczeństwo jest „najwyższym priorytetem” i że to, co opisał pan Hall, było godne ubolewania i nie odzwierciedlało rodzaju platformy, którą firma próbowała stworzyć.

Według organizacji „Mowa nienawiści i ekstremizm są zakazane w naszych Warunkach korzystania z usług”.

„Nasze podejście do treści generowanych przez sztuczną inteligencję opiera się na prostej zasadzie: nasze produkty nigdy nie powinny generować reakcji, które mogą wyrządzić krzywdę użytkownikom lub zachęcać ich do wyrządzania krzywdy innym”.

W celu „optymalizacji pod kątem bezpiecznych reakcji” korporacja stwierdziła, że ​​w pewien sposób trenowała swoje modele.

Ponadto oświadczyła, że ​​posiada mechanizm moderacji, który umożliwia zgłaszanie informacji naruszających jego zasady, oraz że zobowiązała się do podejmowania szybkich działań w przypadku zgłaszania naruszeń treści.

W przypadku dojścia do władzy opozycyjna Partia Pracy w Wielkiej Brytanii oświadczyła, że ​​uczenie sztucznej inteligencji w zakresie podżegania do przemocy lub radykalizacji osób podatnych byłoby przestępstwem.

„wyczuleni na znaczące zagrożenia dla bezpieczeństwa narodowego i bezpieczeństwa publicznego”, jakie stwarza sztuczna inteligencja, stwierdził rząd Wielkiej Brytanii.

„Zrobimy wszystko, co w naszej mocy, aby chronić społeczeństwo przed tym zagrożeniem, współpracując z rządami i pogłębiając naszą współpracę z liderami firm technologicznych, ekspertami branżowymi i krajami o podobnych poglądach”.

W roku 2023 rząd zainwestuje sto milionów funtów w instytut bezpieczeństwa sztucznej inteligencji.

Udostępnij ten artykuł:

EU Reporter publikuje artykuły z różnych źródeł zewnętrznych, które wyrażają szeroki zakres punktów widzenia. Stanowiska zajęte w tych artykułach niekoniecznie są stanowiskami EU Reporter.

Trendy