dane, digitalizacja, nowe technologie

Sztuczna inteligencja – od czego zacząć?

Coraz więcej pojawia się projektów biznesowych opartych na sztucznej inteligencji. Pojawia sie zatem także potrzeba analizy aspektów prawnych takiego...

· 3 min read >

Coraz więcej pojawia się projektów biznesowych opartych na sztucznej inteligencji. Pojawia sie zatem także potrzeba analizy aspektów prawnych takiego projektu. Od czego należy zatem zacząć? Najprościej od ustalenia, czym jest sztuczna inteligencja, którą zamierzamy wdrożyć.

W niedawno wydanej książce “Prawo sztucznej inteligencji” (C.H. Beck 2020, red. Luigi Laidr hab. Marek Świerczyński) napisałem pierwszy rozdział pt. Definicja sztucznej inteligencji. Rozdział dostępny jest za darmo jako promocja monografii. Jest dość krótki (14 stron z przypisami), ale zawiera syntetyczne omówienie tych elementów sztucznej inteligencji, która są ważne z punktu widzenia analizy prawnej.

Dziś poruszając temat sztucznej inteligencji często milcząco zakładamy, że wszyscy rozumiemy to pojęcie tak samo. W rzeczywistości jednak używane definicje często się różnią – jeśli ich nie uzgodnimy, naszą uwagę mogą zaprzątnąć poboczne kwestie. Możemy np. zajmować się systemami, które są sztuczną inteligencją tylko z nazwy, a w praktyce nie mają z nią wiele wspólnego lub systemami ogólnej sztucznej inteligencji, co do której nie mamy pewności, czy w ogóle kiedykolwiek powstanie.

Definicja AI

Proponowana przeze mnie definicja sztucznej inteligencji jest następująca:

sztuczna inteligencja to system, który pozwala na wykonywanie zadań
wymagających procesu uczenia się i uwzględniania nowych okoliczności
w toku rozwiązywania danego problemu i który może w różnym stopniu – w zależności od konfiguracji – działać autonomicznie oraz wchodzić w interakcję z otoczeniem
.

Wskazuje ona na trzy kluczowe aspekty oceny danego systemu AI pod kątem prawno-regulacyjnym:

  • zdolność uczenia się,
  • zdolność do autonomicznego działania,
  • zdolność do wchodzenia w interakcję z otoczeniem.

Zdolność uczenia się

Zdolność uczenia się to inaczej zdolność do analizy danych i ich interpretacji w taki sposób, aby udoskonalać swój sposób działania. Jeśli dane rozwiązanie nie ma takiej cechy, to nie powinno się go określać mianem sztucznej inteligencji.

Warto podkreślić, że na rynku są systemy, których działanie sprawia wrażenie „inteligentnego” działania, jednak które składają się tylko z ciągu poleceń programistycznych, bez zdolności adaptowania się do rezultatów wcześniejszych efektów działania tych poleceń lub uwzględniania nowych danych. Przykładem może być wiele oferowanych obecnie chatbotów do zastosowań komercyjnych.

Zdolność do autonomicznego działania

Kluczowym aspektem działania systemu sztucznej inteligencji jest jego autonomiczność – inaczej mówiąc niezależność od człowieka. Ta cecha systemów AI ma największe znaczenie dla oceny odpowiedzialności osób zarówno korzystających z takich systemów, jak i zaangażowanych w ich stworzenie i utrzymanie.

We wspomnianej publikacji zaproponowałem, aby stopień autonomiczności systemów AI oceniać przy wykorzystaniu poziomów autonomiczności w skali od 0 do 3 (adaptując odpowiednio poziomy autonomiczności opracowane dla potrzeb motoryzacji i pojazdów autonomicznych).

Poziom 0 to system, który przetwarza dane według wcześniej zaprogramowanych algorytmów. Jest to „zwykły” program komputerowy wykonujący wcześniej zaprogramowane polecenia, który nie ma zdolności uczenia się, zatem nie stanowi AI.

Poziom 1 to system AI, który przetwarza dane i prezentuje rezultaty z wykorzystaniem zdolności uczenia się. System nie rekomenduje jednak żadnego działania – człowiek na podstawie otrzymanych danych decyduje, jak postąpić. Przykład – system przedstawiający ocenę profilu psychologicznego pracownika lub potencjalnego klienta.

Poziom 2 to system AI, który rekomenduje konkretne działania do podjęcia. Rekomendacje można przyjąć i wykonać lub odrzucić, można je też zmodyfikować. Przykład – system proponujący konkretne działania do podjęcia np. szkolenia do wykonania przez pracownika lub mail o konkretnej treści do klienta.

Poziom 3 to system AI, który podejmuje konkretne działania i je wykonuje. Przykład: system sam przydziela szkolenia lub wysyła sam e-maile do klientów. Tu rola człowieka (operatora) sprowadza się do nadzoru i interwencji w razie konieczności. System może spowalniać wykonanie takich czynności dając czas dla człowieka na ewentualną reakcję.

Tu warto dodać, że nadzór człowieka może być tylko pozorny – jeśli wyniki działania AI są dłuższy czas prawidłowe, zazwyczaj czujność ludzkiego nadzorcy spada lub wręcz zanika.

Zdolność do wchodzenia w interakcję z otoczeniem

Z kolei zdolność systemu AI do wchodzenia w interakcję z otoczeniem jest kluczowa dla oceny ryzyka związanego z działaniem danego rozwiązania.

Można wyróżnić systemy, które nie wchodzą w ogóle bezpośrednio w interakcję ze światem zewnętrznym, a jedynie pośrednio – poprzez człowieka, który wykorzystuje wyniki działania systemu AI.

Są także systemy, które wchodzą w interakcję ze światem cyfrowym, np. dokonują czynności prawnych, tworzą artykuły na portal internetowy.

Wreszcie są systemy AI, które wchodzą w interakcję ze światem fizycznym, np. poprzez poruszanie się lub kontrolowanie parametrów pracy jakiegoś urządzenia.

Poziom ryzyka powstania szkody w związku z działaniem systemu AI jest najwyższy w ostatnim przypadku. To będą np. pojazdy autonomiczne, ale także systemy AI stosowane w służbie zdrowia.

Podsumowanie

Wskazane wyżej właściwości systemów AI są najbardziej relewantne z punktu widzenia oceny cywilistycznych aspektów danego rozwiązania. Oczywiście nie wyczerpują one listy problemów, które mogą się pojawić w związku z wykorzystywaniem takich rozwiązań, jednak dla oceny ryzyka prawnego są moim zdaniem wystarczające – a przynajmniej stanowią właściwy pierwszy krok przy analizie danego systemu sztucznej inteligencji, czy to przy okazji analizy samej koncepcji czy też już umowy na wdrożenie takiego rozwiązania.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *