ZADANIA ZESPOŁU
Do głównych zadań Zespołu powołanego na mocy zarządzenia nr 166 Rektora Uniwersytetu Łódzkiego z dnia 29.09.2023 r. należy w szczególności:
- analiza trendów związanych z rozwojem generatywnej sztucznej inteligencji i ocena ich znaczenia dla sektora edukacyjnego i prowadzenia badań naukowych;
- ścisła współpraca z zewnętrznymi ekspertami i instytucjami działającymi na rzecz odpowiedzialnego i etycznego rozwoju generatywnej AI, w tym w szczególności w sektorze edukacyjnym i naukowym;
- identyfikacja szans i możliwości wykorzystania narzędzi generatywnej AI w Uniwersytecie Łódzkim, a także potencjalnych zagrożeń wynikających z ich rozwoju dla procesów naukowo-badawczych, dydaktycznych i administracyjnych realizowanych w Uczelni;
- analiza potrzeb i oczekiwań związanych z rozwojem generatywnej sztucznej inteligencji wszystkich członków społeczności akademickiej (studentów, pracowników naukowych, pracowników dydaktycznych, pracowników administracyjnych);
- propagowanie wiedzy o narzędziach generatywnej AI i uwarunkowaniach ich wykorzystania (prawnych, etycznych, kulturowych itp.) w procesie dydaktycznym, naukowo-badawczym i administracyjnym wśród członków społeczności akademickiej oraz rekomendowanie form i narzędzi podnoszenia umiejętności i kompetencji w tym zakresie;
- promowaniem dobrych praktyk krajowych i zagranicznych wykorzystania narzędzi generatywnej AI w procesie dydaktycznym, naukowo-badawczym i administracyjnym.
Interdyscyplinarny Zespoł ds. generatywnej sztucznej inteligencji (generative AI) realizuje swoje zadania od 1 października 2023 r.
REKOMENDACJE
Biorąc pod uwagę, że:
Rozumiemy istotę generatywnej sztucznej inteligencji (generative AI, GenAI), a także mamy wiedzę na temat jej narzędzi (np. ChatGPT, Midjourney, Dall-E, Stable Diffusion itp.) i ich obecnych możliwości.
Zdajemy sobie sprawę, że będą pojawiały się kolejne, doskonalsze i bardziej zaawansowane narzędzia generatywnej sztucznej inteligencji, oferujące coraz szersze spektrum dostępnych funkcjonalności.
Jesteśmy przekonani, że narzędzia generatywnej sztucznej inteligencji, z czasem, będą wykorzystywane w większości krajów na świecie, stąd ich zakazanie lub ograniczenie dostępu do nich, w jakiejkolwiek formie, w naszej opinii, mogłoby doprowadzić do powstania nierówności cyfrowych i osłabienia pozycji członków naszej społeczności akademickiej zarówno na rynku krajowym, jak i rynkach zagranicznych.
Jesteśmy zdania, że naszą rolą jako uczelni wyższej jest kształcenie umiejętności odpowiedzialnego, etycznego i refleksyjnego posługiwania się narzędziami generatywnej sztucznej inteligencji, kładąc przy tym nacisk na kreatywność, krytyczne myślenie, kooperację i komunikację wśród wszystkich członków naszej społeczności akademickiej.
Kluczowe jest dla nas poszanowanie praw podstawowych i godności człowieka, a także to jemu przypisujemy przewodnią i nadzorczą rolę we wszystkich interakcjach z narzędziami generatywnej sztucznej inteligencji i wygenerowanymi w ten sposób materiałami (np. tekst, pliki muzyczne, zdjęcia, grafiki, obrazy, materiały wideo itp.).
Jesteśmy zgodni, że generatywna sztuczna inteligencja oferuje wiele nowych możliwości dla uczelni wyższych i może znaleźć swoje zastosowanie jako narzędzie wspierające procesy dydaktyczne, pracę naukowo-badawczą, działania na rzecz rozwoju poszczególnych dziedzin i dyscyplin naukowych, a także procesy administracyjne, w tym zarządcze.
Zdajemy sobie sprawę, że generatywna sztuczna inteligencja, dzięki procesom jej postępującej demokratyzacji, będzie w coraz większym stopniu wpływała zarówno na oczekiwaną jakość i atrakcyjność procesu kształcenia, doświadczenia edukacyjne i poziom ich immersyjności, a także poziom przystosowania programów nauczania do potrzeb rynku, w tym rynku pracy.
Jesteśmy świadomi wyzwań, jakie stawia przed nami, jako uczelnią wyższą, rozwój narzędzi generatywnej sztucznej inteligencji i konieczności dostosowania, w szczególności, dotychczasowych procesów kształcenia, metod dydaktycznych i narzędzi weryfikacji wiedzy do zmian społecznych i gospodarczych wynikających z rozwoju generatywnej AI, w tym na arenie międzynarodowej.
Uważamy, że narzędzia generatywnej sztucznej inteligencji powinny być jednym z wielu narzędzi technologicznych, jakimi posługują się członkowie naszej społeczności akademickiej. Powinny one stanowić ich uzupełnienie, nie zaś zamiennik (substytut) przy jednoczesnym zachowaniu określonych ram i wysokich standardów ich wykorzystania w procesach dydaktycznych, naukowo-badawczych i administracyjnych.
Chcemy włączyć się w popularyzację narzędzi generatywnej sztucznej inteligencji i przeciwdziałać negatywnym skutkom jej bezrefleksyjnego i nieetycznego wykorzystania.
Dlatego
- Zalecamy korzystanie z różnorodnych źródeł pozyskania informacji i generowania treści. Narzędzia generatywnej AI nie powinny być jednak traktowane jako bank wiedzy ani źródło w pełni wiarygodnych i obiektywnych informacji.
- Biorąc pod uwagę obecne niedoskonałości narzędzi generatywnej AI (np. błędy w generowanych odpowiedziach, ich stronniczość, podatność na wadliwość i ograniczoność źródeł) oraz możliwe nietyczne skutki ich wykorzystania, za konieczne uznaje się weryfikowanie i krytyczne podejście do stworzonych przez nie materiałów.
- Ze względu na fakt, że sztuczna inteligencja jest coraz bardziej osadzona w naszej codzienności i prowadzi do kształtowania się nowych form współpracy pomiędzy człowiekiem a technologią, narzędzia generatywnej AI, w tym ChatGPT, mogą być jedynie narzędziem wsparcia w nauce, dydaktyce i na etapie prowadzenia badań.
- Korzystanie z narzędzi generatywnej AI, w tym ChatGPT, które służą do generowania różnych materiałów powinno zawsze łącznie spełniać kryteria:
• zgodności z prawem, w tym z prawem własności intelektualnej, ochrony danych osobowych, prawem do prywatności,
• zgodności z wartościami etycznymi, w szczególności dobrymi obyczajami akademickimi i standardami rzetelności naukowej, takimi jak sumienność, niezależność, otwartość, odpowiedzialność, przejrzystość.
- Dla zachowania odpowiedzialności i przejrzystości w korzystaniu z narzędzi generatywnej AI, w tym ChatGPT, można posłużyć się listą kontrolną korzystania z takich narzędzi:
• analiza poprawności zadanego pytania (prompt),
• analiza prawidłowości wygenerowanej odpowiedzi,
• weryfikacja założeń wygenerowanej odpowiedzi,
• rzetelne ustalenie źródła wygenerowanej odpowiedzi.
Lista ma pomóc w prawidłowym korzystaniu z narzędzi generatywnej AI, lecz nie ma charakteru wyczerpującego, a jej zakres zależy od kontekstu.
- Ze względu na fakt, że wykorzystanie materiałów generowanych przy wykorzystaniu narzędzia generatywnej AI, w tym ChatGPT, może stanowić naruszenie praw autorskich, zakres ich wykorzystania musi być uzasadniony celem naukowym i/lub dydaktycznym. Odpowiedzialność za wykorzystanie takich materiałów spoczywa zawsze na osobie, która je wykorzystała.
- Dla celów przejrzystości, konieczne jest wyraźne oznaczanie materiałów wygenerowanych przez narzędzia generatywnej AI, jeśli takie materiały zostaną wykorzystane. Przykładem prawidłowego powołania się na treść wygenerowaną przez ChatGPT jest np.: ChatGPT, odpowiedź na pytanie, „treść pytania”(prompt), chat.openai.com [data dostępu:...]. Taka forma cytowania jest dozwolona wyłącznie w przypadkach, w których pomimo dołożenia najwyższej staranności, nie ma możliwości uzyskania dostępu do oryginalnego źródła treści. W pozostałych przypadkach konieczne jest wskazanie oryginalnych źródeł ich pochodzenia.
- Istotne jest, aby oznaczenie materiałów wygenerowanych przy wykorzystaniu narzędzi generatywnej AI nie pozostawiało wątpliwości, które słowa, grafiki, obrazy, wyniki badań itp. powstały przy wykorzystaniu tego typu narzędzi.
- Nie dopuszcza się możliwości korzystania z narzędzi generatywnej AI, w tym w szczególności ChatGPT, podczas egzaminów, w tym egzaminów dyplomowych.
- Zaleca się stosowanie metod i form zaliczeń oraz egzaminów umożliwiających weryfikację rzeczywistej wiedzy, umiejętności i kompetencji, w tym promowanie rozwiązań kreatywnych i wymagających wieloaspektowego analizowania problemów.
- Autorem każdej pracy, w której wykorzystano materiały przygotowane przy wykorzystaniu generatywnej sztucznej inteligencji jest osoba, która się nimi posługuje (np. student, 3 pracownik naukowy, pracownik dydaktyczny) i to ona ponosi odpowiedzialność za nietyczne lub niezgodne z prawem wykorzystanie tego typu materiałów.
- W celu przeciwdziałania potencjalnym nadużyciom wynikającym z niewłaściwego, bezkrytycznego i niezgodnego z prawem wykorzystania narzędzi generatywnej sztucznej inteligencji, w tym ChatGPT, prace studentów będą wyrywkowo weryfikowane za pomocą detektorów sztucznej inteligencji, a student jest zobowiązany do poddania się tej procedurze.
- Za wykorzystanie narzędzi generatywnej AI w sposób naruszający przepisy obowiązujące w Uniwersytecie Łódzkim, w tym w szczególności za wykorzystanie prowadzące do naruszenia praw autorskich, wyciągane będą w stosunku do pracowników, doktorantów i studentów konsekwencje z tytułu odpowiedzialności dyscyplinarnej na zasadach określonych w przepisach obowiązujących w Uczelni.
Powyższe rekomendacje będą podlegały systematycznej rewizji, aktualizacji i dostosowaniu adekwatnie do zachodzących zmian technologicznych i prawnych.
Rekomendacje zostały przygotowane przez Zespół ds. generatywnej sztucznej inteligencji.
Komunikatem Rektora Uniwersytetu Łódzkiego z dnia 9.08.2023 r. wprowadzone zostały rekomendacje dotyczące wykorzystania narzędzi generatywnej sztucznej inteligencji w UŁ.