Jeśli AI pisze prace licencjackie, to może ich tematy też są z generatora?

Czy AI zabije edukację?

Gdybyś wszedł dziś na dowolną studencką grupę na Facebooku czy Discorda, znalazłbyś dziesiątki postów pełnych paniki i strachu. Zakazać! Zabronić! Wyrzucić z uczelni za użycie ChatGPT! To prawdziwa histeria, przypominająca reakcję nauczycieli matematyki, gdy kalkulatory po raz pierwszy pojawiły się w szkołach.

Zanim jednak dołączymy do tego chóru, warto zadać sobie pytanie – czy problemem jest narzędzie, czy może raczej system edukacji, który panicznie boi się zmian?

Wbrew pozorom, problemem nie jest ChatGPT ani inne narzędzia AI. Problemem jest, że system edukacji – szczególnie szkolnictwa wyższego – został zamknięty w schemacie produkowania tysięcy prac licencjackich i magisterskich, które mają niewielką lub zerową wartość naukową. Większość tych tekstów to odtwórcze kompilacje znanych już informacji. Dlaczego więc tak bardzo boimy się, że narzędzie z zerową kreatywnością może je bez trudu generować?

Kryzys, który odsłonił prawdę

Przyjmijmy na chwilę, że z dnia na dzień wszystkie prace dyplomowe pisze ChatGPT. Czy byłaby to katastrofa? Nie. Byłaby to po prostu smutna prawda, że stworzyliśmy system, który nie wymaga samodzielnego myślenia ani prawdziwej kreatywności. Pamiętam, jak studiowałem budownictwo i musiałem tworzyć rysunki techniczne rapidografem, cyrklem i przy użyciu linijki oraz krzywika. Było to absurdalne, ponieważ programy typu CAD istniały już od dawna, i choć nie wszyscy mieli jeszcze dostęp do komputerów, to ja miałem komputer i próbowałem oddawać prace wykonane cyfrowo, jednak spotykało się to z wyraźną dezaprobatą wykładowców. Co ciekawe, gdy moi koledzy trafiali potem do biur projektowych, korzystanie z CAD było już powszechne i nikt z nich po zakończeniu studiów nie używał rapidografu.

nObecna sytuacja pokazuje, że reformy edukacji nie można odkładać na później. UNESCO już zauważyło potrzebę wypracowania jasnych ram etycznych i dydaktycznych dla integracji AI w edukacji. Podobnie Unia Europejska w swoim Digital Education Action Plan wskazuje na konieczność uczenia studentów i wykładowców właściwego, świadomego korzystania z narzędzi AI, a nie ich zakazywania.

Na świecie już testowane są strategie, które zamiast zakazywać użycia AI, uczą studentów etycznego korzystania z tych narzędzi, co zauważył m.in. Horizon Report 2024. Z kolei Chiny ogłosiły, że AI będzie integralną częścią ich reform edukacyjnych na każdym poziomie nauczania. Nie uciekają od AI, tylko się do niego adaptują.

Jaki jest sens pisania prac dyplomowych i jak jest rola autora w erze AI

Kiedyś zadaniem studenta było przepisać informacje. Teraz powinno nim być ich interpretowanie, analizowanie i weryfikowanie. ChatGPT może napisać esej na dowolny temat w kilka sekund, ale nie zastąpi człowieka w wyborze tematu, stawianiu pytań i – przy całym szacunku dla najnowszych modeli AI, które całkiem nieźle radzą sobie z wyciąganiem wniosków – jednak, mimo tych zdolności, wciąż nie zastąpią człowieka w twórczym poszukiwaniu własnych, unikalnych odpowiedzi. Ale czy jest to możliwe, jeżeli znaczna cześć kadry akademicka wciąż ignoruje lub wypiera fakty związane z postępem technologicznym i sztuczną inteligencją? Zadaniem wykładowców nie powinno być zakazywanie użycia narzędzi AI, tylko nauka krytycznego myślenia, odpowiedzialności za weryfikację źródeł oraz umiejętności samodzielnego stawiania pytań, na które AI nie ma gotowej odpowiedzi.

W świetle tego, narzędzia takie jak Scribbr AI Detector czy GPTZero mają sens jako pomoc w wykrywaniu bezmyślnego kopiowania treści AI, ale ich rola powinna ograniczać się do wsparcia, a nie decydowania o uczciwości akademickiej. System edukacji powinien skoncentrować się na wykształceniu u studentów kompetencji cyfrowych i analitycznych, które pozwolą im mądrze wykorzystywać technologię, a nie jej unikać.

Nowa edukacja dla nowej ery

Nasz problem z AI nie polega na tym, że narzędzie zastąpi studentów. Problem polega na tym, że jeśli narzędzie potrafi zastąpić studentów, to coś fundamentalnie nie działało w naszym systemie od początku. To nie AI powinno się bać, ale braku refleksji nad tym, jaką wartość mają dziś tradycyjne prace dyplomowe i czy w ogóle mają sens w obecnej formie.n

Czas zadać trudne pytania – sobie, systemowi edukacji i całej cywilizacji. Czy potrzebujemy jeszcze tych wszystkich pustych form, które właśnie obnażyła sztuczna inteligencja?

Odpowiedź nie jest łatwa, ale im szybciej się z nią zmierzymy, tym szybciej zamiast zakazywać, zaczniemy wreszcie uczyć.


Chcesz zgłębić temat? Zerknij na poniższe źródła, z których sam czerpałem — ale uważaj, bo AI codziennie przechodzi upgrade, a wiele uwag dotyczących tzw. halucynacji AI odnosi się do starszych modeli – nowsze są już znacznie bardziej precyzyjne:

  1. „Chatbot‑supported Thesis Writing: An Autoethnographic Report”
    https://arxiv.org/abs/2311.10729
    Autoetnografia autora opisująca, jak ChatGPT pomagał mu w strukturze pracy licencjackiej i redakcji, ale też gdzie trzeba było samodzielnie weryfikować cytowania.
  2. „Better by You, Better than Me”
    https://arxiv.org/abs/2302.04536
    Eksperyment porównujący eseje pisane samodzielnie i z pomocą AI – oceny podobne, ale teksty generowane przez ChatGPT były odczuwalnie mniej „autentyczne”.
  3. „Graduate Students’ ChatGPT Experience and Perspectives” (iJEP, 2023)
    https://online-journals.org/index.php/i-jep/article/view/48395
    Ankieta wśród studentów magisterskich: wsparcie w organizacji tekstu kontra obawy o etykę i dokładność generowanych treści.
  4. „ChatGPT has become the 'best teammate’ to these Sydney university students” (The Guardian, 2024)
    https://www.theguardian.com/technology/2024/oct/05/chatgpt-has-become-the-best-teammate-to-these-sydney-university-students-but-is-there-a-limit
    Relacja o tym, jak Uniwersytet w Sydney opracował wytyczne etycznego użycia AI i włączył je do programu nauczania.
  5. „Is writing your thesis with ChatGPT wise?” (Jouw Scriptiecoach, 2023)
    https://jouwscriptiecoach.nl/en/thesis-tips/is-writing-your-thesis-with-chatgpt-wise
    Przestroga: praca wygenerowana przez AI bez odpowiedniego nadzoru może zostać uznana za plagiat i stracić naukową wartość.
  6. „Top French university bans use of ChatGPT to prevent plagiarism” (Reuters, 2023)
    https://www.reuters.com/technology/top-french-university-bans-use-chatgpt-prevent-plagiarism-2023-01-27/
    Opis zakazu na Sciences Po jako precedensu w walce z akademickim oszustwem.
  7. „From ChatGPT bans to task forces — universities rethinking academic misconduct” (University Affairs)
    https://universityaffairs.ca/news/from-chatgpt-bans-to-task-forces-universities-are-rethinking-their-approach-to-academic-misconduct/
    Przegląd reakcji kanadyjskich uczelni (m.in. Montrealu) – od zakazów po tworzenie specjalnych zespołów ds. AI.

Jedna odpowiedź

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *