Aktualności
Badania
08 Marca
Opublikowano: 2024-03-08

To może być pierwszy tej skali polski odpowiednik GPT

Generatywne neuronowe modele językowe na bazie terabajta danych tekstowych wyłącznie w języku polskim opracowali naukowcy z Politechniki Gdańskiej i AI Lab z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego. Ich Qra to pierwszy tej skali i najlepszy w modelowaniu języka polskiego odpowiednik otwartych narzędzi Mety czy Mistral AI.

Polskojęzyczne generatywne modele językowe o nazwie Qra zostały utworzone na podstawie korpusu danych zawierającego teksty wyłącznie w języku polskim. Wykorzystany korpus liczył inicjalnie łącznie prawie 2 TB surowych danych tekstowych, w wyniku procesu czyszczenia i deduplikacji uległ prawie dwukrotnemu zmniejszeniu, aby zachować najlepszej jakości unikalne treści. To pierwszy model generatywny wstępnie wytrenowany na tak dużym zasobie polskich tekstów, do którego uczenia użyto wielkich mocy obliczeniowych. Dla porównania modele Llama, Mistral czy GPT są w większości trenowane na danych anglojęzycznych, a jedynie ułamek procenta korpusu treningowego stanowią dane w języku polskim.

Środowisko obliczeniowe przeznaczone pod budowę modeli sztucznej inteligencji powstało na Politechnice Gdańskiej w Centrum Kompetencji STOS, jednym z najnowocześniejszych centrów IT w tej części Europy, gdzie znajduje się superkomputer Kraken. W procesie wykorzystano klaster 21 kart graficznych NVidia A100 80 GB. Przygotowanie środowiska, utworzenie narzędzi i modeli oraz ich trenowanie (w oparciu m.in. o treści z takich obszarów, jak prawo, technologia, nauki społeczne, biomedycyna, religia czy sport) i testowanie zajęło zespołom około pół roku. Dzięki rozbudowanej infrastrukturze CK STOS właściwy proces trenowania w przypadku najbardziej złożonego z modeli został skrócony z kilku lat do około miesiąca.

W wyniku współpracy PG i OPI powstały trzy modele, które różnią się złożonością, tj. Qra 1B, Qra 7B, Qra 13B. Te dwa ostatnie uzyskują istotnie lepszy wynik perplexity, czyli zdolności do modelowania języka polskiego w zakresie jego rozumienia, warstwy leksykalnej czy samej gramatyki, niż oryginalne modele Llama-2-7b-hf (Meta) oraz Mistral-7B-v0.1 (Mistral-AI). Testy pomiaru perplexity przeprowadzono m.in. na zbiorze pierwszych 10 tysięcy zdań ze zbioru testowego PolEval-2018 oraz dodatkowo przetestowano modele na zbiorze 5 tysięcy długich i bardziej wymagających dokumentów napisanych w 2024 roku.

Modele Qra będą stanowić podstawę rozwiązań informatycznych do obsługi spraw i procesów, które wymagają lepszego zrozumienia języka polskiego. Na tym etapie Qra jest fundamentalnym modelem językowym, który potrafi generować poprawne gramatycznie i stylistycznie odpowiedzi w języku polskim. Tworzone treści są bardzo wysokiej jakości, co potwierdza m.in. miara perplexity. Teraz zespół rozpocznie pracę nad strojeniem modeli, aby zweryfikować ich możliwości pod kątem takich zadań, jak klasyfikacja tekstów, dokonywanie ich streszczeń, odpowiadania na pytania.

Opracowane modele zostały upublicznione w dedykowanym repozytorium OPI-PG na platformie huggingface. Każdy może pobrać model i dostosować go do swojej dziedziny i problemów czy zadań, jak np. udzielanie odpowiedzi.

źródło: PG

Dyskusja (0 komentarzy)