Rekomendacje dotyczące wykorzystywania generatywnej SI w ramach pracy naukowej

W pracy naukowej generatywna sztuczna inteligencja (GSI) ma szerokie zastosowania i to w zasadzie we wszystkich sferach. Zadań, do których GSI można wykorzystać, nie sposób wymienić i nieustannie pojawiają się nowe pomysły na to, jak może ona wspierać pracę naukową. Trzeba jednak pamiętać, że wykorzystanie GSI w nauce wiąże się z licznymi etycznymi i prawnymi wyzwaniami, dlatego osoby pracujące naukowo muszą działać bardzo odpowiedzialnie w kontekście materiałów generowanych przez GSI i być transparentnym w stosowaniu tej technologii.

Na stronie tej możemy znaleźć kluczowe rekomendacje etyczne oraz rekomendacje prawne dotyczące stosowania GSI w pracy naukowej. Zaprezentowano również zbiór przykładów konstruktywnego wykorzystywania GSI w kontekście działalności naukowej, które może bez wątpienia pozytywnie wpłynąć na postęp naukowy. Należy jednak wyraźnie zaznaczyć, że egzemplifikacje te odnoszą się do wspomagającego pracę naukową używania sztucznej inteligencji, a zatem takiego, w którym wygenerowane treści podlegają zawsze nie tylko weryfikacji, ale także dalszemu opracowaniu przez naukowców. Strona kończy się listą publikacji, które warto przeczytać, zanim zacznie się korzystać z GSI w pracy naukowej.

Rekomendacje etyczne

Etyczne stosowanie narzędzi GSI w badaniach i komunikacji naukowej wiąże się przede wszystkim z koniecznością poznania ograniczeń tych narzędzi wynikających ze stronniczości, błędów i luk w wiedzy oraz możliwości popełnienia plagiatu.


Zgodnie z rekomendacjami uznanych międzynarodowych instytucji zajmujących się etyką publikacyjną, jak Committee on Publication Ethics (COPE), World Association of Medical Editors (WAME) JAMA Network, aby zachować odpowiednie standardy w nauce, należy zwrócić szczególną uwagę na następujące kwestie:

  1. Narzędzia GSI mogą podawać nieprawdziwe informacje, tworzyć fałszywe bibliografie, w tym przypisywać do rzeczywistych osób nieistniejące publikacje, ich streszczenia i adresy URL (są to tzw. halucynacje systemu). Informacje te mogą brzmieć przekonująco na poziomie językowym, co utrudnia ich identyfikację.
  2. Tekst wygenerowany przez narzędzia GSI należy traktować roboczo i dokładnie zweryfikować pod kątem możliwości popełnienia plagiatu, zidentyfikować wszystkie odwołania do literatury oraz przypisać właściwie autorstwo.
  3. Narzędzia GSI mogą podawać informacje stronnicze, niekompletne lub błędne interpretacje faktów i tworzyć zniekształcony, niepełny lub nieaktualny obraz sytuacji.
  4. Narzędzia GSI mogą nie wykazywać się rozumieniem kontekstowym i mogą nieskutecznie imitować ludzki sposób rozumienia tekstu (zwłaszcza języka metaforycznego, sarkazmu, humoru, wyrażeń idiomatycznych itp.).
  5. Naukowcy ponoszą pełną odpowiedzialność za rzetelność, oryginalność i integralność swoich prac, w tym za wszystkie treści wytworzone przez narzędzia GSI.
  6. Narzędzia GSI, w tym chatboty, nie mogą być podawane jako współautorzy prac, gdyż nie spełniają kryteriów autorstwa.
  7. Każdorazowo należy zapoznać się z polityką wydawcy w kwestii dopuszczalnego zakresu stosowania narzędzi GSI w pisaniu prac naukowych. Najczęściej niedopuszczalne jest generowanie obrazów poprzez narzędzia GSI, chyba, że stanowią one przedmiot pracy.
  8. Za każdym razem należy w sposób uczciwy i dokładny udokumentować wykorzystanie narzędzi GSI w pracy, w tym podać nazwę narzędzia, cel i zakres użycia oraz wskazać istotne dla pracy polecenia (prompty).
  9. W pracy naukowej (badania, publikowanie) należy korzystać z tych narzędzi GSI, które zostały stworzone lub dostosowane do tych właśnie celów i oferują przystosowanie modelu w zakresie zmniejszenia halucynacji, zwiększenia wiarygodności danych wyjściowych, ograniczenia używanych danych wyłącznie do wiarygodnych źródeł czy baz naukowych (np. PubMed).

Rekomendacje prawne

  1. Przy wykorzystaniu GSI w badaniach naukowych istotne jest również rozważenie aspektów prawnych, takich jak ochrona własności intelektualnej i ochrona danych osobowych.
  2. Praca z GSI może wiązać się z ryzykiem naruszenia prawa własności intelektualnej na dwóch etapach: (1) formułowania polecenia (promptu) dla systemu GSI, (2) wykorzystywaniu treści wygenerowanej przez GSI.
  3. Przy formułowaniu polecenia (promptu) należy zwrócić uwagę na informacje i pliki, które udostępniamy systemowi GSI (w tym także detektorowi SI). W zależności od narzędzia, z którego korzystamy, informacje i dokumenty mogą być wykorzystywane do dalszego rozwoju systemu GSI przez usługodawcę i wpływać na treści generowane w przyszłości przez innych użytkowników. Z tego powodu treści wygenerowane przez GSI mogą być zbliżone do istniejących utworów lub obejmować fragmenty dzieł (por. pozew New York Timesa przeciwko OpenAI).
  4. Równie ważna jest świadomość zasad ochrony danych osobowych, w szczególności, gdy korzystamy z systemów GSI za pośrednictwem Internetu. Konwersacja z systemem GSI wiąże się zazwyczaj z przesłaniem do usługodawcy całości informacji, które uwzględnimy w poleceniu (promptcie), w tym również plików graficznych, wideo, głosowych i innych. Z tego powodu powinniśmy zadbać o odpowiednią anonimizację treści, np. poprzez usunięcie nazw indywidualnych (imion, miejsc), dat i innych fragmentów wskazujących na konkretną osobę.

Przykładowe zastosowania

  1. Studiowanie literatury
    1. Wyszukiwanie literatury (np. wykorzystanie GSI do przeszukiwania baz danych czasopism naukowych, katalogów bibliotecznych i repozytoriów w celu znalezienia istniejących publikacji związanych z danym tematem)
    2. Przeszukiwanie zgromadzonych artykułów (np. wykorzystanie GSI do wyodrębniania kluczowych informacji z dużych zbiorów artykułów, czy do wyszukania wspólnych wątków, trendów oraz ukrytych związków)
    3. Kodowanie artykułów do metaanaliz (np. wykorzystanie GSI do automatycznego kategoryzowania artykułów lub grupowania ich treści na podstawie określonych cech)
    4. Sprawdzanie innowacyjności pomysłów dotyczących wybranych problemów (np. wykorzystanie GSI do pomocy w ocenie oryginalności koncepcji badań na podstawie analizy dostępnych publikacji)
    5. Generowanie roboczych hipotez lub pytań w określonym polu problemowym (np. wykorzystanie GSI przy formułowaniu nowych pytań badawczych bazując na istniejących rozwiązaniach)
  2. Przygotowanie badania
    1. Opracowywanie elementów bodźców (np. wykorzystanie GSI w procesie tworzenia treści wizualnych lub narracyjnych, takich jak grafiki, filmy, historie)
    2. Adaptacja bodźców i języka pod kątem wybranej grupy (np. wykorzystanie GSI podczas tłumaczenia lub dostosowywania treści do specyfiki grupy docelowej)
    3. Tworzenie „pozycji” do kwestionariuszy i skal narzędzi badawczych (np. wykorzystanie GSI do dostosowania pytań czy stwierdzeń)
    4. Wyszukiwanie zbiorów danych badawczych i ich ujednolicanie (np. wykorzystanie GSI do przeszukania repozytoriów danych badawczych i poddania wstępnej analizie niejednolitych zestawów danych)
    5. Symulacja badania (np. wykorzystanie GSI do symulowania różnych scenariuszy eksperymentu i szukania optymalnego na podstawie analizy podobnych badań opisanych w literaturze)
    6. Identyfikacja zagrożeń (np. wykorzystanie GSI w procesie oceny potencjalnych ryzyk, błędów czy kwestii etycznych związanych z konkretnym badaniem)
  3. Analiza danych badawczych
    1. Wsparcie w programowaniu (np. wykorzystanie GSI do generowania, debugowania i sprawdzania fragmentów kodu do przetwarzania danych i analiz statystycznych)
    2. Analiza zebranych tekstów (np. wykorzystanie GSI w procesie kategoryzowania materiału czy poszukiwania cech wspólnych analizowanych wypowiedzi)
    3. Analiza danych ilościowych (np. wykorzystanie GSI w analizie dużych zbiorów danych i wykrywaniu ukrytych zależności czy relacji)
  4. Praca nad publikacją lub wnioskiem grantowym
    1. Korekta i edycja własnego tekstu (np. wykorzystanie GSI do poprawy gramatyki, stylistyki czy interpunkcji, do wskazywania potencjalnych błędów i nieścisłości, a także do sprawdzenia spójności tekstu)
    2. Parafrazowanie wybranych fragmentów tekstu (np. wykorzystanie GSI do reformułowania zdań i akapitów lub do dostosowywania ich do specyfiki odbiorców publikacji)
    3. Tłumaczenie własnego tekstu (np. wykorzystanie GSI do generowania automatycznego tłumaczenia, podlegającego dalszej redakcji)
    4. Tworzenie alternatywnych wersji tekstu (np. wykorzystanie GSI podczas pisania wersji tekstu dostosowanej do niespecjalistów)
  5. Popularyzacja
    1. Wsparcie przy tworzeniu treści popularnonaukowych (np. wykorzystanie GSI podczas przygotowania krótkich podsumowań wyników badań naukowych w formie zrozumiałej dla przeciętnego czytelnika)
    2. Wsparcie przy tworzeniu materiałów dla mediów społecznościowych (np. wykorzystanie GSI w procesie tworzenia przystępnych i atrakcyjnych treści popularnonaukowych, takich jak treści postów czy infografiki przekazujących istotne informacje w przystępny sposób).

Warto przeczytać, zanim zacznie się korzystać z GSI w pracy naukowej

  1. Conroy, G. (2023). How ChatGPT and other AI tools could disrupt scientific publishing. Nature, 622, 234-236
  2. Demszky, D., Yang, D., Yeager, D.S., Bryan, C.J., Clapper, M., Chandhok, S., ... & Pennebaker, J.W. (2023). Using large language models in psychology. Nature Reviews Psychology, 2(11), 688-701.
  3. Ganjavi, C., Eppler, M.B., Pekcan, A., Biedermann, B., Abreu, A., Collins, G.S., ... & Cacciamani, G.E. (2024). Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: Bibliometric analysis. BMJ, 384: 384:e077192
  4. Hutson, M. (2023). Hypotheses devised by AI could find 'blind spots' in research. Nature.
  5. Park, J.Y. (2023). Could ChatGPT help you to write your next scientific paper?: Concerns on research ethics related to usage of artificial intelligence tools. Journal of the Korean Association of Oral and Maxillofacial Surgeons, 49(3), 105-106.
  6. Why scientists trust AI too much – and what to do about it. (2024). Nature, 627, 243-243.