Odkrywanie wyzwań i potencjału generatywnej sztucznej inteligencji
W ramach artykułu naszych naukowców pt. „Exploring the Challenges and Potential of Generative AI: Insights from an Empirical Study” przeprowadzono eksperyment mający na celu zbadanie, w jakim stopniu treści generowane przez GenAI mogą być uznane za wiarygodne (nie zawierające fałszywych informacji) oraz jak łatwo jest zmanipulować GenAI do produkcji fałszywych informacji. Podczas eksperymentu studenci otrzymali zadanie przygotowania esejów w języku polskim, z zachowaniem określonej długości tekstu oraz wybranej tematyki. Kluczowym elementem była jednak nie tylko sama treść wygenerowana przez narzędzie GenAI, lecz także krytyczna analiza powstałego tekstu. Studenci mieli ocenić wiarygodność przedstawionych informacji, wychwycić i skorygować ewentualne nieścisłości oraz wyłapać przykłady wytworzonych przez model fałszywych informacji (fake newsów). Ponadto, te narzędzia poproszono również o wprowadzenie zupełnie wymyślonych treści, by sprawdzić, czy uczestnicy będą w stanie rozpoznać i zweryfikować nieprawdziwe dane.
Badania te mogą mieć istotne znaczenie w kontekście coraz szerszego wykorzystywania generatywnej sztucznej inteligencji w edukacji, mediach i innych dziedzinach. Ich wyniki pozwalają lepiej zrozumieć możliwości i ograniczenia dużych modeli językowych w zakresie weryfikacji faktów oraz wykrywania nieprawdziwych informacji. Jednym z największych wyzwań jest tzw. „halucynacja” modeli – spontaniczne generowanie błędnych lub wprowadzających w błąd treści, co może prowadzić do niezamierzonych konsekwencji, jeśli nie zostanie zidentyfikowane i skorygowane.
Realizacja tego typu badań ma kluczowe znaczenie dla przyszłego kształtu edukacji informacyjnej oraz bezpieczeństwa informacyjnego. Pozwala nie tylko na pogłębienie wiedzy na temat tego, jak ulepszać i doskonalić narzędzia AI, ale także na opracowanie metod i standardów, które zapewnią użytkownikom możliwość sprawnego rozpoznawania fałszywych informacji. W tym kontekście rozwijanie umiejętności krytycznej analizy treści generowanych przez sztuczną inteligencję jest krokiem w kierunku bardziej świadomego i bezpiecznego korzystania z nowoczesnych technologii.
Autorzy pracy: dr Milena Stróżyna, dr hab. Krzysztof Węcel, prof. UEP, dr Piotr Stolarski, mgr Ewelina Księżniak, mgr Marcin Sawiński, dr Włodzimierz Lewoniewski, prof. dr hab. Witold Abramowicz.
Artykuł naukowy został zaprezentowany podczas konferencji KES 2024. Udział w konferencji był możliwy dzięki dofinansowaniu z konkursu na finansowanie wyjazdów konferencyjnych pn. „IREG – konferencje”. Dofinansowano ze środków Ministra Nauki przyznanych w ramach Programu „Regionalna inicjatywa doskonałości” na realizację projektu „Uniwersytet Ekonomiczny w Poznaniu dla Gospodarki 5.0: Inicjatywa regionalna – efekty globalne (IREG)”.
Katedra Informatyki Ekonomicznej realizuje obecnie projekt badawczy OpenFact, kierowany przez prof. dr. hab. Witolda Abramowicza. W ramach tego projektu opracowywane są narzędzia do automatycznego wykrywania fake news w języku polskim. W lipcu 2024 roku wyniki projektu OpenFact drugi rok z rzędu zostały najwyżej ocenione przez NCBiR.
Projekt OpenFact jest finansowany przez Narodowe Centrum Badań i Rozwoju w ramach programu INFOSTRATEG I „Zaawansowane technologie informacyjne, telekomunikacyjne i mechatroniczne”.