Kontakt z nami

Technologia komputerowa

OASI, pierwsza wyszukiwarka, która znajduje algorytmy, których rządy i firmy używają na obywatelach

DZIELIĆ:

Opublikowany

on

Używamy Twojej rejestracji, aby dostarczać treści w sposób, na który wyraziłeś zgodę, i aby lepiej zrozumieć Ciebie. Możesz zrezygnować z subskrypcji w dowolnym momencie.

  • Stworzone przez Eticas Foundation, Obserwatorium Algorytmów o Wpływie Społecznym, OASI, zbiera informacje z dziesiątek algorytmów wykorzystywanych przez administracje publiczne i firmy na całym świecie, aby dowiedzieć się więcej o ich wpływie społecznym.
  • Celem jest zapewnienie publicznego dostępu do informacji dotyczących zarówno rządów, jak i algorytmów firm, a także wiedza, kto ich używa, kto je opracowuje, jakie zagrożenia reprezentują i czy zostały poddane audytowi, między innymi.
  • Stronniczość algorytmów i dyskryminacja zwykle występuje między innymi ze względu na wiek, płeć, rasę lub niepełnosprawność, ale ze względu na ogólny brak przejrzystości nadal nie jest możliwe poznanie wszystkich jego konsekwencji dla dotkniętych grup.

Eticas Foundation, organizacja non-profit promująca odpowiedzialne korzystanie z algorytmów i systemów sztucznej inteligencji (AI), stworzyła Obserwatorium Algorytmów o Wpływie Społecznym (OASI). To Obserwatorium wprowadza wyszukiwarkę, aby dowiedzieć się więcej o narzędziach, które podejmują ważne zautomatyzowane decyzje dotyczące obywateli, konsumentów i użytkowników na całym świecie.

Obecnie zarówno firmy, jak i administracja publiczna automatyzują decyzje dzięki algorytmom. Jednakże, jego rozwój i uruchomienie nie podlega zewnętrznej kontroli jakości, ani nie jest tak przejrzyste, jak powinno, co pozostawia populację bez ochrony. Dzięki tej wyszukiwarce każdy może dowiedzieć się więcej o tych algorytmach: kto je opracował, kto z nich korzysta, zakres ich zastosowania, czy zostały poddane audytowi, jakie są ich cele lub wpływ na społeczeństwo oraz zagrożenia, które reprezentują.

W chwili, OASI zbiera 57 algorytmów, ale spodziewa się osiągnąć 100 w następnych miesiącach. Wśród nich 24 są już stosowane w USA przez rząd i firmy Big Tech. Na przykład ShotSpotter, narzędzie algorytmiczne wdrożone przez Departament Policji w Oakland w celu zwalczania i ograniczania przemocy z użyciem broni za pomocą mikrofonów do monitorowania dźwięku oraz algorytm do przewidywania potencjalnego wykorzystywania i zaniedbywania dzieci, używany przez hrabstwo Allegheny w Pensylwanii. Innym przykładem firmy jest Rekognition, system rozpoznawania twarzy firmy Amazon, który został skontrolowany przez MIT Media Lab na początku 2019 r. i okazał się znacznie gorszy przy identyfikacji płci osoby płci żeńskiej lub o ciemniejszej karnacji.

Najczęstsza dyskryminacja dotyczy wieku, płci, rasy lub niepełnosprawności, wyprodukowane w sposób niezamierzony przez programistów, którzy nie mają umiejętności społeczno-ekonomicznych, aby zrozumieć wpływ tej technologii. W tym sensie inżynierowie ci projektują algorytmy w oparciu wyłącznie o umiejętności techniczne, a ponieważ nie ma zewnętrznych elementów sterujących i wydaje się, że działa on zgodnie z oczekiwaniami, algorytm nadal uczy się na podstawie niepełnych danych.

Ze względu na brak przejrzystości działania niektórych z tych algorytmów, Fundacja Eticas, oprócz uruchomienia OASI, rozwija projekt audytów zewnętrznych. Pierwszym z nich jest VioGén, algorytm używany przez hiszpańskie Ministerstwo Spraw Wewnętrznych do przypisywania ryzyka kobietom szukającym ochrony po przypadkach przemocy domowej. Eticas przeprowadzi audyt zewnętrzny za pomocą inżynierii wstecznej i danych administracyjnych, wywiadów, raportów lub skryptów projektowych, aby zebrać wyniki na dużą skalę. Wszystko to w celu wykrycia możliwości poprawy ochrony tych kobiet.

„Pomimo istnienia algorytmicznych metod kontroli i audytu zapewniających, że technologia przestrzega obowiązujących przepisów i praw podstawowych, administracja i wiele firm nadal pozostaje głuchym na prośby o przejrzystość ze strony obywateli i instytucji” – powiedziała Gemma Galdon, założycielka Fundacji Eticas. . „Oprócz OASI, po kilku latach, w których opracowaliśmy kilkanaście audytów dla takich firm jak Alpha Telefónica, Organizacja Narodów Zjednoczonych, Koa Health czy Międzyamerykański Bank Rozwoju, wydaliśmy również Przewodnik po Audytach Algorytmicznych. że każdy może je wykonać. Celem jest zawsze podnoszenie świadomości, zapewnienie przejrzystości i przywrócenie zaufania do technologii, która sama w sobie nie musi być szkodliwa.”

W tym sensie algorytmy, które są szkolone za pomocą technik uczenia maszynowego, wykorzystują dużą ilość danych historycznych, aby „nauczyć” ich wyboru na podstawie wcześniejszych decyzji. Zazwyczaj dane te nie są reprezentatywne dla rzeczywistości społeczno-ekonomicznej i kulturowej, w której są stosowane, ale w wielu przypadkach odzwierciedlają niesprawiedliwą sytuację, której nie zamierza się utrwalać. W ten sposób algorytm podejmowałby technicznie „poprawne” decyzje zgodnie ze swoim treningiem, nawet jeśli w rzeczywistości jego zalecenia lub przewidywania są stronnicze lub dyskryminujące.

reklama

O Fundacji Eticas

Fundacja Eticas pracuje nad przełożeniem na specyfikacje techniczne zasad, które kierują społeczeństwem, takich jak równe szanse, przejrzystość i niedyskryminacja, które znajdują się w technologiach, które podejmują zautomatyzowane decyzje dotyczące naszego życia. Poszukuje równowagi między zmieniającymi się wartościami społecznymi, technicznymi możliwościami najnowszych osiągnięć i ramami prawnymi. W tym celu przeprowadza audyty algorytmów, weryfikuje, czy gwarancje prawne są stosowane w świecie cyfrowym, zwłaszcza w odniesieniu do sztucznej inteligencji, oraz prowadzi intensywne prace nad podnoszeniem świadomości i rozpowszechnianiem potrzeby odpowiedzialnej, wysokiej jakości technologii.

Udostępnij ten artykuł:

EU Reporter publikuje artykuły z różnych źródeł zewnętrznych, które wyrażają szeroki zakres punktów widzenia. Stanowiska zajęte w tych artykułach niekoniecznie są stanowiskami EU Reporter.

Trendy