
Tekst napisany w czerwcu 2024 r.
Politycy chyba czują, że mogliby być pierwszą profesją do zastąpienia przez AI, więc kontratakują.
Doskonałym przykładem może być konferencja w Ministerstwie Nauki i Szkolnictwa Wyższego z 27 czerwca 2024 r. zorganizowana wyłącznie po to, aby podzielić się podejrzeniami ministerstwa, że jeden z posłów posługuje się AI w pisaniu interpelacji poselskich. Zdaniem Ministerstwa “taka praktyka może naruszać godność mandatu poselskiego i prowadzić do paraliżu urzędów centralnych.”
Aby udowodnić tę praktykę, ministerstwo przeanalizowało otrzymane interpelacje przy pomocy narzędzia zaprojektowanego do weryfikacji prac dyplomowych pod kątem korzystania z generatywnej AI. Chodzi o Jednolity System Antyplagiatowy opracowany przez Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy. W swoim przekazie Ministerstwo pominęło okoliczność, że system ten został zaprojektowany pod konkretne zastosowanie, które raczej nie obejmuje interpelacji poselskich, jak również to, że nie istnieją przekonujące dowody na wiarygodność wyników takich systemów. Świadczy o tym choćby decyzja OpenAI o wycofaniu swojego własnego narzędzia do rozpoznawania tekstów generowanych przez ChatGPT.
Ministerstwo pominęło także informację, że wykorzystany moduł systemu antyplagiatowego jest najprawdopodobniej sam systemem AI. Pisałem o tym w marcu 2024 r. w artykule “Czy system do wykrywania tekstów generowanych przez ChatGPT to system AI wysokiego ryzyka?” Co ciekawe, OPI PIB w opisie działania swojego modułu starannie unika terminu AI czy sztuczna inteligencja, ale wspomina, że moduł wykorzystuje model językowy: “JSA w swoim rozwiązaniu opiera się o model językowy, który wyznacza pewne prawdopodobieństwo dla następujących po sobie wyrazów i fraz językowych, ze względu na dany kontekst.”
Mamy zatem do czynienia z kuriozalną sytuacją. Stawiany jest zarzut korzystania z systemu AI, co sugerować ma niską jakość tekstu, a zarzut jest wykazywany przy pomocy innego systemu AI, co ma potwierdzać wysoką jakość wyników uzyskanych z tego systemu. Czyli niedobrze, gdy ktoś przesyła do nas pismo używając systemu AI, ale dobrze, gdy my zweryfikujemy to pismo przy pomocy naszego systemu AI.
Najważniejsze jest jednak to, że w ogóle ministerstwo i reprezentujący je polityk postanowili uczynić komuś zarzut z posługiwania się narzędziem AI. Ministerstwo nie powinno podważać merytorycznej treści interpelacji tylko na podstawie podejrzenia, że została stworzona przy pomocy AI. Jakość interpelacji poselskiej powinna być oceniana na podstawie jej merytorycznej treści, a nie narzędzia, które zostało użyte do jej stworzenia.
Dyskusja na temat etyki korzystania z narzędzi AI jest niezbędna, ale powinna być prowadzona z uwzględnieniem wszystkich faktów i w duchu otwartości na innowacje. Inaczej plany innego ministerstwa – Ministerstwa Cyfryzacji – z których wynika, że Polska jest i ma być liderem we wprowadzaniu sztucznej inteligencji, mogą wziąć w łeb.
AI to narzędzie, które – używane odpowiedzialnie – może znacząco zwiększyć efektywność pracy i poprawić jakość życia. Obawy związane z AI są zrozumiałe, ale nie powinny prowadzić do irracjonalnych decyzji czy działań, które mogą zahamować rozwój technologiczny.
Czy zamiast krytykować i podważać, nie powinniśmy raczej skupić się na edukacji i tworzeniu jasnych, etycznych ram korzystania z AI? W ten sposób moglibyśmy korzystać z potencjału tej technologii w sposób odpowiedzialny i przemyślany, zamiast demonizować ją na każdym kroku.