Rekomendacje dotyczące wykorzystywania generatywnej SI w ramach pracy naukowej
W pracy naukowej generatywna sztuczna inteligencja (GSI) ma szerokie zastosowania i to w zasadzie we wszystkich sferach. Zadań, do których GSI można wykorzystać, nie sposób wymienić i nieustannie pojawiają się nowe pomysły na to, jak może ona wspierać pracę naukową. Trzeba jednak pamiętać, że wykorzystanie GSI w nauce wiąże się z licznymi etycznymi i prawnymi wyzwaniami, dlatego osoby pracujące naukowo muszą działać bardzo odpowiedzialnie w kontekście materiałów generowanych przez GSI i być transparentnym w stosowaniu tej technologii.
Na stronie tej możemy znaleźć kluczowe rekomendacje etyczne oraz rekomendacje prawne dotyczące stosowania GSI w pracy naukowej. Zaprezentowano również zbiór przykładów konstruktywnego wykorzystywania GSI w kontekście działalności naukowej, które może bez wątpienia pozytywnie wpłynąć na postęp naukowy. Należy jednak wyraźnie zaznaczyć, że egzemplifikacje te odnoszą się do wspomagającego pracę naukową używania sztucznej inteligencji, a zatem takiego, w którym wygenerowane treści podlegają zawsze nie tylko weryfikacji, ale także dalszemu opracowaniu przez naukowców. Strona kończy się listą publikacji, które warto przeczytać, zanim zacznie się korzystać z GSI w pracy naukowej.
Rekomendacje etyczne
Etyczne stosowanie narzędzi GSI w badaniach i komunikacji naukowej wiąże się przede wszystkim z koniecznością poznania ograniczeń tych narzędzi wynikających ze stronniczości, błędów i luk w wiedzy oraz możliwości popełnienia plagiatu.
Zgodnie z rekomendacjami uznanych międzynarodowych instytucji zajmujących się etyką publikacyjną, jak Committee on Publication Ethics (COPE), World Association of Medical Editors (WAME) , JAMA Network, aby zachować odpowiednie standardy w nauce, należy zwrócić szczególną uwagę na następujące kwestie:
- Narzędzia GSI mogą podawać nieprawdziwe informacje, tworzyć fałszywe bibliografie, w tym przypisywać do rzeczywistych osób nieistniejące publikacje, ich streszczenia i adresy URL (są to tzw. halucynacje systemu). Informacje te mogą brzmieć przekonująco na poziomie językowym, co utrudnia ich identyfikację.
- Tekst wygenerowany przez narzędzia GSI należy traktować roboczo i dokładnie zweryfikować pod kątem możliwości popełnienia plagiatu, zidentyfikować wszystkie odwołania do literatury oraz przypisać właściwie autorstwo.
- Narzędzia GSI mogą podawać informacje stronnicze, niekompletne lub błędne interpretacje faktów i tworzyć zniekształcony, niepełny lub nieaktualny obraz sytuacji.
- Narzędzia GSI mogą nie wykazywać się rozumieniem kontekstowym i mogą nieskutecznie imitować ludzki sposób rozumienia tekstu (zwłaszcza języka metaforycznego, sarkazmu, humoru, wyrażeń idiomatycznych itp.).
- Naukowcy ponoszą pełną odpowiedzialność za rzetelność, oryginalność i integralność swoich prac, w tym za wszystkie treści wytworzone przez narzędzia GSI.
- Narzędzia GSI, w tym chatboty, nie mogą być podawane jako współautorzy prac, gdyż nie spełniają kryteriów autorstwa.
- Każdorazowo należy zapoznać się z polityką wydawcy w kwestii dopuszczalnego zakresu stosowania narzędzi GSI w pisaniu prac naukowych. Najczęściej niedopuszczalne jest generowanie obrazów poprzez narzędzia GSI, chyba, że stanowią one przedmiot pracy.
- Za każdym razem należy w sposób uczciwy i dokładny udokumentować wykorzystanie narzędzi GSI w pracy, w tym podać nazwę narzędzia, cel i zakres użycia oraz wskazać istotne dla pracy polecenia (prompty).
- W pracy naukowej (badania, publikowanie) należy korzystać z tych narzędzi GSI, które zostały stworzone lub dostosowane do tych właśnie celów i oferują przystosowanie modelu w zakresie zmniejszenia halucynacji, zwiększenia wiarygodności danych wyjściowych, ograniczenia używanych danych wyłącznie do wiarygodnych źródeł czy baz naukowych (np. PubMed).
Rekomendacje prawne
- Przy wykorzystaniu GSI w badaniach naukowych istotne jest również rozważenie aspektów prawnych, takich jak ochrona własności intelektualnej i ochrona danych osobowych.
- Praca z GSI może wiązać się z ryzykiem naruszenia prawa własności intelektualnej na dwóch etapach: (1) formułowania polecenia (promptu) dla systemu GSI, (2) wykorzystywaniu treści wygenerowanej przez GSI.
- Przy formułowaniu polecenia (promptu) należy zwrócić uwagę na informacje i pliki, które udostępniamy systemowi GSI (w tym także detektorowi SI). W zależności od narzędzia, z którego korzystamy, informacje i dokumenty mogą być wykorzystywane do dalszego rozwoju systemu GSI przez usługodawcę i wpływać na treści generowane w przyszłości przez innych użytkowników. Z tego powodu treści wygenerowane przez GSI mogą być zbliżone do istniejących utworów lub obejmować fragmenty dzieł (por. pozew New York Timesa przeciwko OpenAI).
- Równie ważna jest świadomość zasad ochrony danych osobowych, w szczególności, gdy korzystamy z systemów GSI za pośrednictwem Internetu. Konwersacja z systemem GSI wiąże się zazwyczaj z przesłaniem do usługodawcy całości informacji, które uwzględnimy w poleceniu (promptcie), w tym również plików graficznych, wideo, głosowych i innych. Z tego powodu powinniśmy zadbać o odpowiednią anonimizację treści, np. poprzez usunięcie nazw indywidualnych (imion, miejsc), dat i innych fragmentów wskazujących na konkretną osobę.
Przykładowe zastosowania
- Studiowanie literatury
- Wyszukiwanie literatury (np. wykorzystanie GSI do przeszukiwania baz danych czasopism naukowych, katalogów bibliotecznych i repozytoriów w celu znalezienia istniejących publikacji związanych z danym tematem)
- Przeszukiwanie zgromadzonych artykułów (np. wykorzystanie GSI do wyodrębniania kluczowych informacji z dużych zbiorów artykułów, czy do wyszukania wspólnych wątków, trendów oraz ukrytych związków)
- Kodowanie artykułów do metaanaliz (np. wykorzystanie GSI do automatycznego kategoryzowania artykułów lub grupowania ich treści na podstawie określonych cech)
- Sprawdzanie innowacyjności pomysłów dotyczących wybranych problemów (np. wykorzystanie GSI do pomocy w ocenie oryginalności koncepcji badań na podstawie analizy dostępnych publikacji)
- Generowanie roboczych hipotez lub pytań w określonym polu problemowym (np. wykorzystanie GSI przy formułowaniu nowych pytań badawczych bazując na istniejących rozwiązaniach)
- Przygotowanie badania
- Opracowywanie elementów bodźców (np. wykorzystanie GSI w procesie tworzenia treści wizualnych lub narracyjnych, takich jak grafiki, filmy, historie)
- Adaptacja bodźców i języka pod kątem wybranej grupy (np. wykorzystanie GSI podczas tłumaczenia lub dostosowywania treści do specyfiki grupy docelowej)
- Tworzenie „pozycji” do kwestionariuszy i skal narzędzi badawczych (np. wykorzystanie GSI do dostosowania pytań czy stwierdzeń)
- Wyszukiwanie zbiorów danych badawczych i ich ujednolicanie (np. wykorzystanie GSI do przeszukania repozytoriów danych badawczych i poddania wstępnej analizie niejednolitych zestawów danych)
- Symulacja badania (np. wykorzystanie GSI do symulowania różnych scenariuszy eksperymentu i szukania optymalnego na podstawie analizy podobnych badań opisanych w literaturze)
- Identyfikacja zagrożeń (np. wykorzystanie GSI w procesie oceny potencjalnych ryzyk, błędów czy kwestii etycznych związanych z konkretnym badaniem)
- Analiza danych badawczych
- Wsparcie w programowaniu (np. wykorzystanie GSI do generowania, debugowania i sprawdzania fragmentów kodu do przetwarzania danych i analiz statystycznych)
- Analiza zebranych tekstów (np. wykorzystanie GSI w procesie kategoryzowania materiału czy poszukiwania cech wspólnych analizowanych wypowiedzi)
- Analiza danych ilościowych (np. wykorzystanie GSI w analizie dużych zbiorów danych i wykrywaniu ukrytych zależności czy relacji)
- Praca nad publikacją lub wnioskiem grantowym
- Korekta i edycja własnego tekstu (np. wykorzystanie GSI do poprawy gramatyki, stylistyki czy interpunkcji, do wskazywania potencjalnych błędów i nieścisłości, a także do sprawdzenia spójności tekstu)
- Parafrazowanie wybranych fragmentów tekstu (np. wykorzystanie GSI do reformułowania zdań i akapitów lub do dostosowywania ich do specyfiki odbiorców publikacji)
- Tłumaczenie własnego tekstu (np. wykorzystanie GSI do generowania automatycznego tłumaczenia, podlegającego dalszej redakcji)
- Tworzenie alternatywnych wersji tekstu (np. wykorzystanie GSI podczas pisania wersji tekstu dostosowanej do niespecjalistów)
- Popularyzacja
- Wsparcie przy tworzeniu treści popularnonaukowych (np. wykorzystanie GSI podczas przygotowania krótkich podsumowań wyników badań naukowych w formie zrozumiałej dla przeciętnego czytelnika)
- Wsparcie przy tworzeniu materiałów dla mediów społecznościowych (np. wykorzystanie GSI w procesie tworzenia przystępnych i atrakcyjnych treści popularnonaukowych, takich jak treści postów czy infografiki przekazujących istotne informacje w przystępny sposób).
Warto przeczytać, zanim zacznie się korzystać z GSI w pracy naukowej
- Conroy, G. (2023). How ChatGPT and other AI tools could disrupt scientific publishing. Nature, 622, 234-236
- Demszky, D., Yang, D., Yeager, D.S., Bryan, C.J., Clapper, M., Chandhok, S., ... & Pennebaker, J.W. (2023). Using large language models in psychology. Nature Reviews Psychology, 2(11), 688-701.
- Ganjavi, C., Eppler, M.B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G.S., ... & Cacciamani, G.E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, 384: 384:e077192
- Hutson, M. (2023). Hypotheses devised by AI could find 'blind spots' in research. Nature.
- Park, J.Y. (2023). Could ChatGPT help you to write your next scientific paper?: Concerns on research ethics related to usage of artificial intelligence tools. Journal of the Korean Association of Oral and Maxillofacial Surgeons, 49(3), 105-106.
- Why scientists trust AI too much – and what to do about it. (2024). Nature, 627, 243-243.