Przesuwamy granice sztucznej inteligencji w obszarze przetwarzania języka naturalnego i widzenia komputerowego
Co robimy?
Rozwijamy modele sztucznej inteligencji w obszarze przetwarzania języka naturalnego i widzenia komputerowego. Współpracujemy z firmami i agencjami, do których kierujemy swoją ofertę na polskim rynku. Badamy też nowe, specjalistyczne rozwiązania, które możemy dostosowywać do konkretnych dziedzin przemysłowych lub rozwijać je dla języka polskiego.
Jesteśmy zespołem naukowców i specjalistów. Mamy doświadczenie w publikowaniu badań naukowych, projektach konkursowych i wdrożeniach w dziedzinie sztucznej inteligencji.
- Rozwijamy metody i modele sztucznej inteligencji dla firm i agencji.
- Badamy metody sztucznej inteligencji – przede wszystkim w obszarach:
- przetwarzania języka naturalnego (ang. natural language processing, NLP),
- widzenia komputerowego (ang. computer vision, CV).
- Prezentujemy nasz dorobek na krajowych i międzynarodowych konferencjach i seminariach.
- Przedstawiamy wyniki naszych badań w naukowych publikacjach o sztucznej inteligencji.
- Dzielimy się wiedzą na temat sztucznej inteligencji.
Co osiągnęliśmy?
Na stronie znajdziesz informacje o naszych sukcesach w dziedzinie Neuronowych Modeli Językowych (ang. neural language model, NLMs). Jesteśmy liderem w tworzeniu modeli językowych dla języka polskiego. Nasz model Polish Roberta-large-v2 przewyższa inne modele w kategorii neuronowych, reprezentacyjnych modeli językowych, co potwierdzają wyniki z rankingu KLEJ.
Na bazie własnych modeli reprezentacyjnych (Polish Roberta) tworzymy wysokiej jakości modele typu sentence-transformers. Ostatnio stworzyliśmy najlepsze modele neuronowe w obszarze Information Retrieval dla języka polskiego, czyli zaawansowane enkodery tekstu do zastosowania w wyszukiwaniu informacji. Nasze modele wygrywają z innymi, co potwierdza PIRB benchmark.
W grudniu ogłosiliśmy najlepszy polski model enkodera tekstu ogólnego przeznaczenia, który przewodzi w rankingu MTEB benchmark.
Dodatkowo udostępniliśmy 2 modele generatywne dla języka polskiego: BART i GPT2 z 1,5 miliardami parametrów.
Jesteśmy członkiem ważnego konsorcjum, które pracuje nad pierwszym polskim otwartym wielkim modelem językowym – PLLuM – odpowiednikiem modeli GPT, stojących za sukcesem ChatGPT.
Z Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej i Politechniką Gdańską badamy i opracowujemy nowoczesne neuronowe modele języka i ich zastosowania. Podjęliśmy pierwszą próbę wstępnego wytrenowania polskiej wersji modelu Llama 2.
Swoją wiedzę i doświadczenie wykorzystujemy we współpracy z PKO BP – największym polskim bankiem.
Nasze projekty:
Współpracuj z nami
- Potrzebujesz nowoczesnych metod przetwarzania języka polskiego?
- Potrzebujesz nowoczesnych metod przetwarzania obrazów w przemyśle?
Pomożemy Ci wybrać i wdrożyć metody i modele AI dostosowane do potrzeb Twojego biznesu.
Chcesz porozmawiać o współpracy?
Napisz do mnie: marek.kozlowski@opi.org.pl
dr inż. Marek Kozłowski
kierownik AI LAB
Kieruję AI LAB w OPI – Państwowym Instytucie Badawczym. Zarządzam pracą zespołu badaczy i programistów, który zajmuje się tworzeniem oprogramowania wzbogaconego inteligentnymi metodami przetwarzania danych tekstowych i obrazowych. Pasjonuje mnie przetwarzanie języka naturalnego, eksploracja danych i uczenie maszynowe. Jestem autorem ponad 45 publikacji naukowych z zakresu semantycznego przetwarzania tekstów i uczenia maszynowego. W swojej karierze brałem udział w wielu komercyjnych projektach badawczych dotyczących uczenia maszynowego. Z efektów mojej pracy korzystały firmy, takie jak m.in. Samsung, France Telecom, Orange Labs, Millward Brown, Vive Textile Recycling czy Connectis. Brałem udział w międzynarodowych konkursach uczenia maszynowego, takich jak IEEE BigData 2019 Cup.
Obserwuj nas: AI LAB LinkedIn