Logowanie

 

Wydział Informatyki i Telekomunikacji

PLLuM – narzędzie, które uczy myśleć… maszyny po polsku

Data: 08.01.2024

Polski model językowy PLLuM, wytrenowany na polskojęzycznych tekstach zbuduje konsorcjum, któremu przewodzi Politechnika Wrocławska. Projekt ma za zadanie zwiększyć innowacyjność i konkurencyjność polskiego sektora naukowego i technologicznego. Pracują nad nim naukowcy z Katedry Sztucznej Inteligencji WIT.

ilustracyjne2.jpeg
PLLuM, czyli Polish Large Language Universal Model, jest projektem wielkiego polskiego modelu językowego opartego na technologii sztucznej inteligencji. Jego głównym celem jest zrewolucjonizowanie interakcji z językiem polskim w świecie cyfrowym, poprzez zapewnienie bardziej precyzyjnego i osadzonego w polskim kontekście przetwarzania języka naturalnego.

– Koncepcja modelu powstała z myślą o intensywnym wykorzystaniu danych w języku polskim, co pozwala na głębsze zrozumienie niuansów i specyfiki naszego języka, a także zapewnienie dobrej jakości wiedzy o naszej historii i kulturze – mówi dr inż. Jan Kocoń z Katedry Sztucznej Inteligencji WIT.

PLLuM, od początku porównywany do słynnego ChatGPT, jest odpowiedzią na rosnące zapotrzebowanie na specjalistyczne narzędzia językowe, które mogą lepiej służyć polskim użytkownikom w różnorodnych zastosowaniach, od edukacji po obsługę klienta. Naukowiec dodaje, że opracowanie takiego modelu będzie dużym krokiem w stronę bardziej spersonalizowanych i skutecznych rozwiązań AI, które lepiej będą odpowiadały na potrzeby polskojęzycznego społeczeństwa.

PLLuM myśli i mówi po polsku

Chat GPT radzi sobie dość dobrze z językiem polskim, ale „dość dobrze” to w wielu sytuacjach za mało – zdaniem naukowców z Politechniki Wrocławskiej, Państwowego Instytutu Badawczego NASK (PIB NASK), Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB), Instytutu Podstaw Informatyki PAN, Uniwersytetu Łódzkiego oraz Instytutu Slawistyki PAN. Dlatego też postanowili stworzyć narzędzie, które mogłoby – za jednym z polskich wieszczów epoki romantyzmu Juliuszem Słowackim – powiedzieć: „Chodzi mi o to, aby język giętki, powiedział wszystko, co pomyśli głowa…”.

– Różnica między PLLuM a ChatGPT wynika głównie z ich specyfikacji językowych. PLLuM będzie zoptymalizowany do pracy z językiem polskim, co obejmuje lepsze rozumienie lokalnych zwrotów, idiomów, a także specyfikę kulturową i historyczną Polski – wyjaśnia dr inż. Jan Kocoń. – ChatGPT, będąc bardziej uniwersalnym modelem, nie ma tej „głębokości” zrozumienia polskiej specyfiki. Jest to kluczowe w tworzeniu naturalnych i płynnych konwersacji.

Dzięki temu PLLuM może oferować bardziej precyzyjne i dopasowane odpowiedzi w języku polskim, co jest szczególnie ważne w obszarach wymagających specjalistycznej wiedzy lub lokalnego kontekstu.

PLLuM otwarty i bezpłatny

jan_kocon.jpgNiuanse językowe to jednak nie wszystko. Naukowiec z Katedry Sztucznej Inteligencji WIT zwraca uwagę na jeszcze jeden istotny aspekt. – Nawet jeśli Chat GPT już oferuje usługę na dość dobrym poziomie znajomości języka polskiego, to nadal nie mamy nad nią pełnej kontroli – zauważa dr inż. Jan Kocoń. Zaznacza, że intensywne wykorzystanie słynnego amerykańskiego modelu jest drogie. – A zastosowanie do tekstów zawierających dane wrażliwe często jest wykluczone, gdyż nie możemy przetwarzać tym modelem danych lokalnie.

PLLuM będzie narzędziem otwartym, co jest istotne w kontekście rosnącego zapotrzebowania na cyfrowe usługi w języku polskim. – Projekt ma ambicję zwiększenia innowacyjności i konkurencyjności polskiego sektora naukowego i technologicznego – podkreśla badacz z WIT. – Jego rozwój przyczyni się do lepszego zrozumienia polskich realiów kulturowych i językowych przez maszyny, co otworzy nowe możliwości w edukacji, administracji publicznej i przemyśle. Ponadto, PLLuM ma za zadanie ułatwić dostęp do zaawansowanych technologii językowych dla polskich użytkowników, bez względu na ich techniczną wiedzę.

Ze względu na otwartoźródłowy charakter PLLuM będzie mógł być modyfikowany i dostosowywany do specyficznych potrzeb użytkowników. Szczególne znaczenie może to mieć dla polskich przedsiębiorstw i instytucji, które szukają rozwiązań dostosowanych do lokalnego języka i kultury i które można uruchomić na własnych serwerach. Współpraca z instytucjami akademickimi i badawczymi może również przyczynić się do ciągłego rozwoju i udoskonalania modelu. Dr inż. Jan Kocoń tłumaczy, że PLLuM, będąc dostępnym dla szerokiego grona użytkowników, ma potencjał, by znacząco przyczynić się do rozwoju polskiej przestrzeni cyfrowej.

PLLuM prawdomówny

Proces uczenia PLLuM będzie opierać się na zaawansowanych technikach uczenia maszynowego, wykorzystujących duże zbiory danych w języku polskim, co ma zapewnić wysoką jakość i adekwatność generowanych odpowiedzi, a także wiarygodność.

– Podczas procesu uczenia modelu wykorzystywane będą różnorodne źródła tekstów, od literatury po artykuły internetowe, co ma na celu zapewnienie wszechstronnego zakresu wiedzy. Szczególną uwagę zwracamy na unikanie wprowadzania stronniczych lub fałszywych informacji do modelu – podkreśla dr inż. Jan Kocoń. – Zespół pracujący nad PLLuM może wprowadzać ręczne korekty w formie instrukcji, aby zapewnić jeszcze lepszą jakość rozwiązania. Ważną rolę odgrywa także planowany proces ciągłego aktualizowania modelu w dynamicznie zmieniającym się środowisku informacyjnym.

Zdaniem naukowca, jednym z największych wyzwań przy tworzeniu PLLuM jest zapewnienie wysokiej jakości danych do jego uczenia, które muszą być reprezentatywne w szeroko pojętym polskim kontekście. Kolejna trudność to utrzymanie równowagi między skutecznością modelu a jego wymaganiami sprzętowymi i kosztami operacyjnymi. Ważnym aspektem jest również opracowanie skutecznych metod oceny i testowania modelu, aby zapewnić jego niezawodność i odpowiednią reakcję na zapytania użytkowników, zwłaszcza jeśli model będzie generował nieprawidłowe odpowiedzi. Istotną kwestią jest także zarządzanie oczekiwaniami użytkowników i edukowanie ich na temat możliwości oraz ograniczeń modelu. Wreszcie, wyzwaniem jest ciągłe aktualizowanie modelu, aby nadążać za zmieniającym się językiem i kulturą, co wymaga stałej pracy badawczej i rozwojowej.

ilustracyjne1.jpeg

PLLuM bezpieczny czy ryzykowny?

Chat, który odpowiada na każde pytanie, potrafi napisać każdy rodzaj tekstu, to ogromne korzyści i mnóstwo możliwości, ale z modelami takimi jak Chat GPT lub PLLuM wiążą się też pewne obawy.

– Zagrożenia związane z PLLuM i podobnymi modelami sztucznej inteligencji dotyczą przede wszystkim kwestii prywatności i bezpieczeństwa danych. Istnieje ryzyko, że duże zbiory danych wykorzystywane do uczenia modelu mogą zawierać wrażliwe informacje, co rodzi obawy dotyczące ich ochrony – mówi naukowiec z Katedry Sztucznej Inteligencji. – Ponadto, istnieje potencjalne ryzyko wykorzystania modelu do generowania dezinformacji, zwłaszcza w kontekście politycznym lub społecznym. Innym zagrożeniem jest możliwość nadużycia technologii AI do celów niezgodnych z etyką, na przykład w celu tworzenia fałszywych tożsamości.

Dr inż. Jan Kocoń ma świadomość, że możliwość automatyzacji treści może również prowadzić do spadku wiarygodności informacji w internecie i utrudnić odróżnienie treści generowanych przez człowieka od tych stworzonych przez maszynę. Wzrost zależności od automatycznych systemów może także powodować utratę umiejętności językowych i krytycznego myślenia w społeczeństwie. Wreszcie, rozwój takich technologii może przyczynić się do zwiększenia bezrobocia w niektórych sektorach, gdzie zadania ludzkie mogą być zastępowane przez automatyzację.

– Dlatego tak ważne jest, aby rozwój i implementacja modeli AI, takich jak PLLuM, były prowadzone z uwzględnieniem tego ryzyka – podsumowuje jeden z twórców PLLuM.

Zapisz się na WITletter

Galeria zdjęć

Politechnika Wrocławska © 2024

Nasze strony internetowe i oparte na nich usługi używają informacji zapisanych w plikach cookies. Korzystając z serwisu wyrażasz zgodę na używanie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki, które możesz zmienić w dowolnej chwili. Ochrona danych osobowych »

Akceptuję