JĘZYKOZNAWSTWO nr specjalny 2023 ISSN 2391-5137


http://doi.org./10.25312/2391-5137.NS23_abpl


Adam Bednarek image https://orcid.org/0000-0002-1563-4968 Akademia Humanistyczno-Ekonomiczna w Łodzi

e-mail: adam.bednarek@ahe.email


Rewolucja cyfrowa: wyzwania dla badań językoznawczych i nauczania języków obcych


Streszczenie

W artykule sformułowano interdyscyplinarną refleksję nad wpływem rewolucji cyfrowej na badania języ- koznawcze oraz nauczanie języków obcych. W pierwszej części autor przybliża historyczne i współczesne definicje sztucznej inteligencji (AI), od Turingowskiego pytania „Czy maszyny mogą myśleć?”, przez podział na wąską (ANI) i szeroką (AGI/ASI) AI, aż po najnowsze osiągnięcia w obszarze generatywnych modeli językowych (LLM). Omówiono także krytyczne stanowisko Johna Searle’a i eksperyment Chińskiego Po- koju jako kontrapunkt wobec tezy o świadomości maszyn. Druga część tekstu poświęcona jest praktycznym wyzwaniom wdrożenia technologii rozszerzonej rzeczywistości (XR) w edukacji językowej. Przedstawiono klasyfikację trzech poziomów immersji (w pełni immersyjne VR, pół-immersyjne MR oraz nieimmersyjne AR), a także zalety takich rozwiązań, m.in. naturalną interakcję z wirtualnymi obiektami czy wspomaganie procesu uczenia poprzez multimodalne treści. Zidentyfikowano główne bariery: brak inter-operacyjnych standardów, ograniczoną dostępność materiałów oraz wyzwania adaptacyjnych systemów nauczania. W kontekście polskim omówiono ramy prawne wspierające cyfrową edukację, a także przykłady krajowych inicjatyw.


Słowa kluczowe: sztuczna inteligencja (AI), duże modele językowe (LLM), wirtualna, rozszerzona i mieszana rzeczywistość (VR/AR/MR), nauczanie języków obcych, immersyjne technologie edukacyjne


Chociaż termin sztuczna inteligencja (ang. artificial intelligence, AI) został zdefinio- wany na kilka sposobów w ciągu ostatnich kilku dekad, esej Alana Turinga Computing Machinery and Intelligence z 1950 roku jest uznawany za początek debaty na temat sztucznej inteligencji. Główne pytanie postawione przez Turinga, nazywanego „ojcem


informatyki”, brzmi: „Czy maszyny mogą myśleć?”. Stuart Russell i Peter Norvig (2016) omawiają cztery możliwe cele lub definicje sztucznej inteligencji (AI), która wyróżnia systemy komputerowe na podstawie ich rozumowania i zdolności do myślenia, a nie tylko działania. W przeszłości generatywna sztuczna inteligencja była istotna dla postępów w technologii komputerowej, które doprowadziły do przełomów (statystyka i statystyczny Internet); tym razem prym wiedzie przetwarzanie języka naturalnego. Modele mogą nie tylko uczyć się struktury naturalnych obrazów, kodu oprogramowania i szerokiej gamy innych danych, ale mogą również uczyć się gramatyki języka.


Rozwój technologii w kontekście badań akademickich

Aby zrozumieć, jak to działa, musimy wprowadzić pojęcie sztucznych sieci neuronowych, które są prawdziwym składnikiem głębokiego uczenia się, reprezentującym biologiczną sieć neuronową, jaką posiadają czujące istoty. W głębokim uczeniu sieć neuronowa z wię- cej niż trzema warstwami – które obejmowałyby warstwę wejściową i wyjściową – jest określana jako „głęboka” w kontekście tej techniki. Chociaż nie zawsze jest to konieczne,

„głębokie” uczenie maszynowe może wykorzystywać zestawy danych do kierowania swoim algorytmem. Może automatycznie ustalić hierarchię cech, które odróżniają od sie- bie różne typy danych. Może również przyjmować nieustrukturyzowany materiał w jego surowej formie, takiej jak tekst i zdjęcia. Staje się więc rodzajem rachunku „możliwości” zamiast „prawdopodobieństwa”. W zamkniętym systemie wyniki nakładają się na siebie, dlatego algorytm uczy się rozpoznawać wzorce i przewidywać rozwiązania.

Teraz musimy rozróżnić dwa rodzaje sztucznej inteligencji. Wąska sztuczna inteli- gencja (ang. Artificial Narrow Intelligence, ANI) to sztuczna inteligencja, która została przeszkolona i ukierunkowana na wykonywanie określonych zadań. Większość sztucznej inteligencji, z którą mamy dziś do czynienia, jest zasilana przez słabą sztuczną inteligen- cję, taką jak Alexa, Siri i kilka bardzo potężnych aplikacji, w tym bardzo popularny GPT lub Generative Pre-Trained Transformer. Dlatego GPT jest niczym więcej niż modelem. Modele te są trenowane na dużych ilościach nieoznakowanych danych, które wymagają niewielkiego dostrojenia, mogą być wykorzystywane do różnych zadań i są modelami potencjalnych wyników. Szeroka sztuczna inteligencja zastępuje wąską sztuczną inte- ligencję, ucząc się szerzej i stosując swoje możliwości w szerszym zakresie zagadnień i tematów, które obecnie prowadzą nas do następnego etapu, jakim jest silna sztuczna inteligencja. Dwa składniki silnej sztucznej inteligencji to sztuczna superinteligencja (ang. Artficial Superintelligence, ASI) i sztuczna inteligencja ogólna (ang. Artficial General Intelligence, AGI).

Komputer o inteligencji porównywalnej z ludzką byłby nazywany sztuczną inteligencją ogólną (AGI). Byłby on zdolny do rozwiązywania problemów, uczenia się i planowania przyszłości, funkcjonując w ten sposób na równi z ludzkim mózgiem. I do tego właśnie zmierzają obecne innowacje. Rok 2023 przyniósł ogromną poprawę wydajności AI, a jej wartość dla przedsiębiorstw wynika z pojawienia się dużych modeli językowych lub LLM (Large Language Models), takich jak ChatGPT. Modele głębokiego uczenia mogą


być wstępnie wytrenowane na ogromnych ilościach nieoznakowanych, nieprzetworzo- nych danych. Celem przyświecającym takim działaniom jest uniknięcie zafałszowania wyników na skutek wprowadzenia wstępnie błędnych danych lub specjalnego ich przy- gotowania w celu osiągnięcia potencjalnego wyniku. Socjolingwiści mogliby nazwać taki model językiem wernakularnym, czyli tym, którego używamy wiedząc, że nie jesteśmy obserwowani. Celem jest umożliwienie modelowi samodzielnego uczenia się, podobnie jak wszyscy uczymy się w naszym środowisku. Jest to najbardziej niebezpieczny aspekt tej nowej rzeczywistości, ponieważ dane wejściowe mogą być manipulowane w celu osiągnięcia wyników.

Rozwój sztucznej inteligencji stwarza ogromny potencjał dla rozwoju naukowego i aka- demickiego. Widzieliśmy już postępy w humanistyce stosowanej, dzięki przetwarzaniu języka naturalnego, które umożliwiło innowacyjne podejścia w wielu dziedzinach badania i używania języka. Rozpoznawanie mowy, automatyczne tłumaczenie, analiza sentymen- talna czy eksploracja argumentów to tylko niektóre z możliwości, które pozwalają nam pracować na dużych zbiorach danych. Sztuczna inteligencja staje się zatem narzędziem badawczym: asystentem, a nie ostatecznym źródłem wiedzy. Jest to kluczowy wniosek: narzędzie jest tylko tak dobre, jak zbiór danych, na którym zostało przeszkolone. Innymi słowy, jeśli model jest uszkodzony przez fałszywe dane, to dostarczy fałszywych odpo- wiedzi. Na tym etapie naszym akademickim obowiązkiem jest weryfikacja przewidywań AI, ale nie kwestionowanie jej istnienia ani przydatności w badaniach akademickich.


Język jako narzędzie opisu rzeczywistości

W tej sekcji wracamy do rozważań nad językiem jako narzędziem opisu rzeczywistości i nad jego wpływem na postrzeganie świata. John Searle zaproponował eksperyment my- ślowy znany jako „chiński pokój”. Jego wnioski stanowią o tym, że niezależnie od tego, jak zaawansowany i podobny do człowieka będzie program sterujący zachowaniem kom- putera, nie wytworzy on świadomości (conscientia). W proponowanym eksperymencie program komputerowy tworzy chińskie znaki z danych wejściowych i przedstawia je jako dane wyjściowe, podobnie jak ma to miejsce w dzisiejszych rozwiązaniach do automatycz- nego tłumaczenia. Searle zastanawia się, czy maszyna naprawdę rozumie język chiński, czy tylko go symuluje. Pierwsze stanowisko nazywa „silną sztuczną inteligencją”, a drugie

„słabą sztuczną inteligencją”. Maszyna przechodzi test Turinga, przekonując człowieka mówiącego po chińsku, że jest żywym Chińczykiem, choć w rzeczywistości nim nie jest. Hasan Çağatay (2019) ponownie analizuje eksperyment myślowy Searle’a, twierdząc,

że Searle nie docenia roli, jaką w prawdziwym rozumieniu odgrywają procesy uczenia się i rozpoznawania wzorców. Wprowadzając swą „uczciwą wersję chińskiego pokoju” (ang. Fair Version of the Chinese Room, FVCR), Çağatay pokazuje, że przy wystarczającej ilości czasu i dostępie do danych sensorycznych, nawet osoba początkowo nieznająca języka mogłaby osiągnąć autentyczne zrozumienie poprzez iteracyjne kojarzenie i wykrywanie wzorców. Podważa to tezę Searle’a, jakoby sama manipulacja składnią nie była w stanie wygenerować znaczenia semantycznego. Autor dochodzi do wniosku, że argument


Searle’a nie obala silnej sztucznej inteligencji, ponieważ pomija możliwości zaawan- sowanych algorytmów w naśladowaniu procesów poznawczych, takich jak formowanie pojęć czy intencjonalność, kluczowych dla ludzkiego rozumienia.

W literaturze przedmiotu test Turinga bywa często zestawiany z filmową adaptacją próby wykrycia sztucznej inteligencji, jaką Ridley Scott przedstawił w Łowcy androidów (Blade Runner, 1982). Podczas gdy Alan Turing postulował w 1950 roku kryterium lin- gwistycznej nieodróżnialności maszyny od człowieka, Voight-Kampff – fikcyjny test psy- chofizjologiczny – operuje na poziomie emocjonalnym i empatycznym, mierząc reakcje biologiczne badanej jednostki na prowokacyjne pytania. Po pierwsze, konfrontacja języ- kowa (Turing) kontra konfrontacja emocjonalna (Voight-Kampff) wskazuje na odmienną ontologię obu prób: test Turinga zakłada, że wystarczającą przesłanką „człowieczeństwa” jest zdolność przekonującej rozmowy, podczas gdy w filmie Scott – korzystając z wizu- alnych i performatywnych środków – akcentuje rolę empatii i subtelnych, mimowolnych sygnałów (zmiana rytmu oddechu, mikro-drżenia źrenic). Scena z Raechel, w której Deckard zadaje pytania mające wywołać silną reakcję uczuciową, ilustruje granice po- dejścia Turinga: nawet perfekcyjna imitacja mowy nie musi iść w parze z odtwarzaniem bogactwa ludzkiego świata wewnętrznego. Wizualizacja tego procesu podkreśla wymiar materialności i obecności ciała: w Łowcy androidów widzimy, jak maszyna (android) zbliża się do biomorficznych granic „człowieczeństwa” – jej skóra, spojrzenie i gesty są niemal nieodróżnialne od ludzkich, lecz to właśnie zmienne somatyczne reakcje odsła- niają jej syntetyczne pochodzenie. W ten sposób Scott tworzy narracyjny kontrapunkt do abstrakcyjnej, „papierowej” procedury Turinga, akcentując, że sprawa identyfikacji inteligentnych bytów wymaga uwzględnienia nie tylko semantycznych kompetencji, ale również fenomenologii przeżycia emocjonalnego.

Wreszcie zestawienie obu testów otwiera pole do dyskusji nad etycznymi i ontologicz-

nymi konsekwencjami tworzenia maszyn „zdolnych do” lub „udających” uczucia. Podob- nie jak eksperyment „chińskiego pokoju” Searle’a demaskuje lukę między symbolami a świadomością, Voight-Kampff wskazuje na istotę tzw. „kwalitatywnej różnicy” – nawet gdy maszyna pomyślnie przejdzie Turingowski dialog po chińsku, może jej zabraknąć autentycznego zakorzenienia w ludzkiej kondycji, co film Scotta ukazuje z wyjątkową siłą wizualnej alegorii.

Być może rozwiązanie jest przechowywane głęboko w nas, jednak postrzegamy elementy takie jak składnia czy zmienność leksykalna jako odmiany systemów komu- nikacyjnych i kończymy w tym samym miejscu – w kolejnym zamkniętym systemie, w którym symboliczne odniesienia muszą wskazywać znaczenie dla myśli, wyrażonej poprzez język. Nasze postrzeganie rzeczywistości (zgodnie z hipotezą Sapira-Whorfa, która na pewien czas została odrzucona przez teoretyków strukturalizmu) sugeruje, że to język determinuje nasz sposób myślenia, a każda kultura opiera swoje rozumowanie na pozytywach i negatywach, podobnie jak cały nasz postęp technologiczny opiera się na systemie zero-jedynkowym.

Francesco De Carolis (2018) analizuje hipotezę Sapira-Whorfa, rozróżniając jej silny (deterministyczny) i bardziej umiarkowany wariant. Umieszcza ją w szerszym kontekście intelektualnym, przywołując dorobek Humboldta, Cassirera i Boasa, by podkreślić spo-


łeczno-kulturowe aspekty języka. Praca ukazuje zarówno uniwersalność i różnorodność wszystkich języków zwracaną przez Sapira, jak i obserwacje Whorfa o językach spoza rodziny indoeuropejskiej (np. Hopi), demonstrując wpływ struktur językowych na po- strzeganie pojęć, takich jak rzeczywistość czy czas w różnych kulturach. Autor krytycznie odnosi się do wąsko pojętych eurocentrycznych podejść oraz opowiada się za interdy- scyplinarnymi badaniami łączącymi lingwistykę z filozofią, psychologią i antropologią. W podsumowaniu zaś podkreśla, że zróżnicowanie językowe ma zasadniczy wpływ zarówno na procesy myślowe jednostek, jak i na organizację nauki. Lingwiści opowia- dają się za konceptualnymi kategoriami poznania, wskazując, że znaczenie wywodzi się ze społecznie i kulturowo podzielanych praktyk i norm, jednak modele językowe, które stanowią rdzeń istniejących rozwiązań AI, wskazują na algorytmiczną naturę języka. I tutaj możemy rozwinąć nasze rozumienie filozofii inteligencji.


Technologia immersyjna w nauczaniu

W ostatnich latach obserwujemy gwałtowny rozwój technologii cyfrowych i ich zasto- sowań w życiu codziennym oraz w procesie nauczania, co sprawia, że badacze często gubią się w definiowaniu technologii związanych z rozszerzoną rzeczywistością (Exten- ded Reality, XR) i zastanawiają się, w jaki sposób można je wykorzystać w kształceniu językowym. Naukowcy spodziewają się kolejnej fali rozwoju XR w latach dwudziestych XXI wieku. Trudność w jednoznacznym określeniu technologii immersyjnych, takich jak XR, nie jest zjawiskiem wyjątkowym. Aby w raporcie wprowadzić klarowną ter- minologię, należy wyróżnić trzy podstawowe formy: wirtualną rzeczywistość (Virtual Reality, VR), rzeczywistość rozszerzoną (Augmented Reality, AR) oraz rzeczywistość mieszaną (Mixed Reality, MR). Równocześnie, dzięki powszechności smartfonów i postę- powi technologicznemu, dynamicznie rozwija się mobilne wspomaganie nauki języków (Mobile-Assisted Language Learning, MALL). Badania empiryczne nad MALL (np. Rosell-Aguilar, 2017) oraz promowanie przez naukowców wykorzystania mobilnych aplikacji – w tym komunikatorów instant messaging – w nauczaniu języka angielskiego potwierdzają rosnące znaczenie tych narzędzi w edukacji.

Istnieją trzy rodzaje immersji oferowane przez technologie XR: w pełni immersyjne, półimmersyjne i nieimmersyjne. W pełni immersyjne treści wymagają użycia specjalnych urządzeń, takich jak VR HMD (wyświetlacze montowane na głowie), które pozwalają użytkownikom zanurzyć się w wirtualnym środowisku, blokując wszystkie informacje ze- wnętrzne. Treści nieimmersyjne nie wymagają żadnych specjalnych urządzeń do interakcji z użytkownikiem; wykorzystują ekrany mobilne i stacjonarne; są uważane za najniższy poziom immersji. Treści półimmersyjne mieszczą się pomiędzy dwoma wspomniany- mi typami. Wykorzystują rzeczywiste środowisko lub sprzęt, który jest kompatybilny i podłączony do ekranu komputera stacjonarnego, aby zwiększyć poziom immersji bez odcinania wszystkich informacji zewnętrznych (Alqahtani i in., 2017).

Jedną z głównych zalet narzędzi XR jest to, że zapewniają one wciągające doświad- czenia, które pozwalają użytkownikom na interakcję z wirtualnymi obiektami w sposób,


który wydaje się naturalny i intuicyjny. VR pozwala wejść do w pełni wciągającego środowiska, które może symulować praktycznie każde środowisko. Z drugiej strony AR nakłada informacje cyfrowe na świat rzeczywisty, umożliwiając tworzenie interaktyw- nych doświadczeń, które poprawiają rzeczywiste sytuacje. Na przykład mechanik mógłby użyć okularów AR, aby wyświetlić cyfrowe nakładki silnika, podkreślając różne części i dostarczając informacji o tym, jak je naprawić. AR może być wykorzystywana w edu- kacji, aby ożywić podręczniki, umożliwiając uczniom odkrywanie modeli 3D złożonych koncepcji. Jak sama nazwa wskazuje, MR łączy w sobie elementy VR i AR i zapewnia bardziej angażujące wrażenia. Użytkownicy mogą wchodzić w interakcje z wirtualnymi obiektami, które są płynnie zintegrowane ze światem rzeczywistym za pomocą MR, umożliwiając poziom interakcji, który nie jest możliwy w przypadku tradycyjnych in- terfejsów opartych na ekranie.

Tworzenie interaktywnych materiałów edukacyjnych będzie wiązało się z wyzwania- mi. Kluczową kwestią są tutaj adaptacyjne lub inteligentne systemy nauczania. Wielu nauczycieli zgłasza obawy, ponieważ mają bardzo ograniczoną dostępność projektów instruktażowych (Obeidat et al., 2017). Odnosi się to do ograniczonej ilości materiałów dostępnych w VR/AR, które nie dają pewności, że spełnią potrzeby uczniów. Ponadto interoperacyjność treści VR na różnych platformach jest trudna do osiągnięcia, więc VR jest często dostarczana jako zastrzeżone rozwiązanie, będące własnością organizacji lub osoby fizycznej (Alalvan i in., 2020). Opublikowano wiele badań i przeglądów dotyczą- cych wykorzystania technologii XR w edukacji, jednak większość z nich, jeśli nie wszyst- kie, nie ma na celu pokazania, jakie podejścia są dostępne dla przeciętnego nauczyciela tworzącego materiały dydaktyczne w VR. W jednym z badań przeanalizowano rynek VR dla edukacji i szkoleń w kilku dziedzinach w latach 2019–2021, wykorzystując dane ze sklepu internetowego jednego z głównych producentów headsetów VR HMD firmy Oculus. Odkrycia ujawniły, że ponad połowa aplikacji jest dostępna bezpłatnie, więk- szość w języku angielskim. Najlepiej oceniane aplikacje pochodzą z dziedzin przyrody, astronomii, medycyny, sztuki i historii.

Polska, podobnie jak wiele innych krajów europejskich, nie jest obca firmom i startu-

pom oferującym rozwiązania XR. Przykładowo firma 3WAY Monika Mitoraj prowadziła prace badawczo-rozwojowe w ramach grantu z Kujawsko-Pomorskiej Agencji Innowacji w programie Fundusz Badań i Wdrożeń. Celem prac było opracowanie elementu metodyki prowadzenia zajęć językowych w obszarze VR/AR i stworzenie prototypów systemów. 3WAY opracował pierwsze na rynku polskim i europejskim narzędzie do nauczania języ- ków obcych w przestrzeni VR, w którym nauczyciel i uczeń lub grupa uczniów spotykają się na zajęciach w czasie rzeczywistym. Seria testów potwierdziła, że wybrana ścieżka jest najlepsza dalszego rozwoju projektu. Stworzony przez firmę prototyp wzbudził duże zainteresowanie. Narzędzia w aplikacji, takie jak modele 3D, tablica, możliwość rysowania 3D czy zamieszczone grafiki, pomagają prowadzić zajęcia, nadają im kontekst i wprowa- dzają nowość, która zwiększa ich atrakcyjność w konkretnym środowisku edukacyjnym (VR/AR – nowoczesne metody nauczania języków obcych, 2021).

Wyzwanie stanowi także rozwój „edukacji w chmurze”. Jest to system zarządzania nauczaniem, w skrócie LMS (od ang. Learning Management System), czyli wielofunkcyjne


narzędzie wspierające organizację szkoleń i rozwój pracowników. Cały proces nauki może być w pełni zautomatyzowany i obsługiwany za pomocą jednej platformy. Podstawowymi zadaniami LMS są optymalizacja procesów, dostarczanie szkoleń i umożliwianie two- rzenia kursów. Automatyzację można wykorzystać na przykład do zapewniania nowym pracownikom odpowiednich materiałów szkoleniowych natychmiast po tym, jak dołączą do struktury organizacyjnej firmy. Jeśli będą potrzebowali powtórzyć szkolenie, system powiadomi ich o tym w odpowiednim czasie, bez konieczności angażowania w to innych pracowników. Materiały szkoleniowe są bezpiecznie przechowywane w bibliotece na plat- formie LMS. Skuteczny system archiwizacji umożliwia szybkie wyszukiwanie danych, rozszerzanie bazy wiedzy i dostęp do materiałów z dowolnego miejsca i w dowolnym czasie (Wesoła, 2022).

Najbliższe lata przyniosą ogromną poprawę wydajności AI. Jej wartość dla przedsię- biorstw wynika z pojawienia się dużych modeli językowych (Large Language Models, LLM) takich jak ChatGPT. Modele głębokiego uczenia mogą być wstępnie wytrenowane na ogromnych ilościach nieoznakowanych, nieprzetworzonych danych; celem przyświe- cającym takim działaniom jest uniknięcie zafałszowania wyników na skutek wprowa- dzenia wstępnie błędnych danych lub specjalnego ich przygotowania w celu osiągnięcia potencjalnego wyniku. Zatem uczelnie mogą tworzyć własne modele, które opierają się na badaniach własnych pracowników oraz prac magisterskich by stworzyć narzędzia badawcze AI wspomagające rozwój studentów oraz pracowników.


Rekomendacje

Wnioski płynące z analiz wskazują na konieczność kompleksowej modernizacji prze- strzeni edukacyjnych, w tym adaptacji klasycznej sali lekcyjnej do wymogów technologii XR. Transformacja tradycyjnego układu ławek i tablicy powinna uwzględniać instalację interaktywnych paneli, systemów śledzenia ruchu oraz stref pracy zespołowej, co pozwoli nauczycielom i studentom na płynne przejście między trybem rzeczywistym a wirtualnym. Taka „nowoczesna klasa” nie tylko zwiększy zaangażowanie uczniów, lecz także stworzy elastyczne środowisko, w którym treści dydaktyczne mogą być prezentowane w formie immersyjnej, sprzyjając głębszemu zrozumieniu i utrwalaniu wiedzy.

Drugim istotnym elementem jest aktywne wsparcie firm i startupów specjalizujących się w tworzeniu zasobów XR, opartych na wypracowanych „dobrych praktykach”. Z uwagi na dynamiczny rozwój technologii immersyjnych niezbędne jest sformułowanie standar- dów jakości oraz katalogu efektywnych scenariuszy dydaktycznych, które będą wyko- rzystywane przy produkcji materiałów edukacyjnych. Współpraca instytucji naukowych z sektorem prywatnym powinna obejmować testowanie i walidację prototypów, a także iteracyjne doskonalenie narzędzi, co przyczyni się do szybkiego wdrażania innowacyjnych rozwiązań w systemie oświaty.

Trzecim rekomendowanym kierunkiem działań jest rozwój modelu „szkoły w chmu- rze” opartej na platformach LMS, dostosowanej zarówno do potrzeb osób wykluczonych społecznie, jak i poszukujących alternatywnych form kształcenia. Wdrożenie rozwiązań


chmurowych umożliwi dostęp do kursów XR z dowolnego miejsca i o każdej porze, elimi- nując bariery geograficzne i ekonomiczne. Kluczowe będzie opracowanie mechanizmów wsparcia technicznego oraz programów szkoleniowych dla nauczycieli, które zapewnią efektywne korzystanie z zasobów online i uwzględnią specyfikę pracy z uczniami o róż- nych poziomach kompetencji cyfrowych.

Ostatnia rekomendacja dotyczy finansowania projektów badawczo-rozwojowych skoncentrowanych na tworzeniu instytucjonalnych modeli językowych, wykorzysty- wanych następnie do budowy wirtualnych asystentów edukacyjnych. Granty powinny wspierać rozwój algorytmów opartych na zasobach lingwistycznych i dydaktycznych poszczególnych uczelni i szkół, co pozwoli na generowanie spersonalizowanych interak- cji, adaptujących się do potrzeb użytkownika. Dzięki temu narzędzia XR zyskają funkcje kreatywnego wspomagania procesu nauczania, umożliwiając dynamiczne dostosowanie treści i stylu prezentacji do indywidualnych preferencji i celów edukacyjnych.


Zakończenie

Rewolucja cyfrowa, która zdominowała ostatnie dekady, stawia przed badaczami ję- zykoznawstwa i dydaktykami języków obcych zarówno wyjątkowe możliwości, jak i poważne wyzwania. Wykorzystanie sztucznej inteligencji – od wąskich algorytmów po duże modele językowe – umożliwia analizę ogromnych korpusów tekstów i kreowanie spersonalizowanych narzędzi wspomagających proces nauczania. Z kolei technologie XR oferują zupełnie nowe sposoby angażowania uczących się poprzez immersyjne środowi- ska, w których semantyka języka splata się z doświadczeniem wizualno-przestrzennym. Jednak pełne zaadaptowanie tych innowacji wymaga systemowego podejścia: moder- nizacji przestrzeni edukacyjnych (tworzenia „nowoczesnych klas” XR), ustandaryzowania i współtworzenia zasobów dydaktycznych wraz z branżą technologiczną oraz rozwinięcia platform chmurowych dostępnych dla różnych grup użytkowników. Niezbędne są także instrumenty finansowe – granty na rozwój instytucjonalnych modeli językowych oraz wsparcie dla startupów pracujących nad materiałami XR – aby konsekwentnie wdrażać

„cyfrowe dobre praktyki” i zwiększać interoperacyjność rozwiązań.

W dłuższej perspektywie kluczowa okaże się interdyscyplinarna współpraca: języko- znawców, pedagogów, informatyków i psychologów, którzy wspólnie zdefiniują standardy jakości danych, etyczne ramy wykorzystania AI oraz kryteria efektywności narzędzi immersyjnych. Tylko w ten sposób rewolucja cyfrowa może stać się prawdziwym im- pulsem do pogłębienia rozumienia języka – zarówno jako systemu znaków, jak i środka kształtującego nasze sposoby myślenia i poznawania świata.


Bibliografia

Alalwan N., Cheng L., Al-Samarraie H., Yousef R., Alzahrani A. I., Sarsam S. (2020), Chal- lenges and prospects of virtual reality and augmented reality utilization among primary school teachers: A developing country perspective, „Studies in Educational Evaluation”, vol. 66, 100876, http://doi.org/10.1016/j.stueduc.2020.100876

Alqahtani A. S., Daghestani L. F., Ibrahim L. F. (2017), Environments and system types of virtual reality technology in STEM: A survey, „International Journal of Advanced Computer Science and Applications (IJACSA)”, vol. 8, s. 77–89, http://doi.org/10.14569/IJACSA.2017.080610

Çağatay H. (2019), A Fair Version of the Chinese Room, „Problemos”, vol. 96, s. 121–133, https://doi.org/10.15388/Problemos.96.10

de Carolis F. (2018), Edward Sapir and Benjamin Lee Whorf: Perspectives and Concepts,

„Studia Universitatis Babeș-Bolyai Philologia”, vol. 63(3), http://doi.org/10.24193/subbphi- lo.2018.3.15

Obeidat H., Meccawy M., Blanchfield P. (2009), Authoring for Adaptive Web-Based Learning Systems: A Case Study, „International Journal of Emerging Technologies in Learning (iJET)”, vol. 4(2), pp. 27–31, http://doi.org/10.3991/ijet.v4i2.920

Rosell-Aguilar F. (2017), State of the app: a taxonomy and framework for evaluating lan- guage learning mobile applications, „CALICO Journal”, vol. 34(2), s. 243–258, http://doi. org/10.1558/cj.27623

Russell S., Norvig P. (2016), Artificial Intelligence: A Modern Approach, London.

Turing A. (1950), Computing Machinery and Intelligence, „Mind”, vol. LIX(236), s. 433–460, http://doi.org/10.1093/mind/LIX.236.433

VR/AR – nowoczesne metody nauczania języków obcych (2021), https://www.123way.pl/ vr-ar-nowoczesne-metody-nauczania-jezykow-obcych/ [dostęp: 3.03.2023].

Wesoła B. (2022), Edukacja w Polsce wymaga zmian. Ekspert proponuje rozwiązania. Sama zdawalność to za mało, nie każdy uczeń musi mieć wyższe wykształcenie, https://strefaedukacji. pl/edukacja-w-polsce-wymaga-zmian-ekspert-proponuje-rozwiazania-sama-zdawalnosc-to-za-

-malo-nie-kazdy-uczen-musi-miec-wyzsze/ar/c5-16953779 [dostęp: 10.03.2023].


Abstract

The digital revolution: Challenges for linguistics and foreign language

education

The article offers an interdisciplinary reflection on the impact of the digital revolution on linguistic research and foreign language education. In the first section, the author surveys both historical and contemporary definitions of artificial intelligence (AI), tracing the evolution from Turing’s foundational question, “Can machines think?”, through the classification of AI into narrow (ANI) and general/superintelligent (AGI/ASI) forms, to the most recent developments in the domain of large language models (LLMs). The analysis also addresses John Searle’s critical perspective and the Chinese Room argument as a philosophical counterpoint to claims regarding machine consciousness. The second section is devoted to the practical challenges associated with the integration of extended reality (XR) technologies into language education. It outlines a typology of three immersion levels – fully immersive virtual reality (VR), semi-immersive mixed reality (MR), and non-immersive augmented reality (AR) – and highlights the pedagogical benefits of these approaches, such as natural interaction with virtual objects and the enhancement of learning through multimodal content. The discussion identifies key


obstacles, including the absence of interoperable standards, limited availability of educational resources, and the complexities of implementing adaptive learning systems. Within the Polish context, the article examines the legal frameworks that support digital education, alongside examples of national initiatives.


Keywords: artificial intelligence (AI), large language models (LLMs), virtual, augmented and mixed reality (VR/AR/MR), foreign language teaching, immersive educational technologies