Biografia
Dr hab. inż. Bartosz Ziółko, prof. AGH, inwestor indywidualny. Był współzałożycielem i Prezesem Zarządu Techmo – spółki technologicznej dostarczającej rozwiązania z zakresu rozpoznawania i generowania mowy.
Absolwent Elektroniki i Telekomunikacji na AGH. Doktorat z Informatyki uzyskał na University of York, a habilitację w 2017 roku. Jest autorem ponad 100 prac naukowych, dwóch patentów przyznanych przez USPTO i jednego przez EPO. Autor książki "Przetwarzanie mowy". Stypendysta Hokkaido University w Japonii oraz uczestnik programu TOP 500 Innovators na Stanford University.
Zainteresowania badawcze
Zainteresowania naukowe obejmują:
- Analiza danych finansowych
- Wnioskowanie z użyciem LLM na danych heterogenicznych
- Automatyczne rozpoznawanie mowy (ASR)
- Przetwarzanie języka naturalnego (NLP)
- Prediagnoza chorób na podstawie mowy
Uczestniczył w ponad 10 krajowych i europejskich projektach badawczych. Firma, którą zbudował, stworzyła system rozpoznawania mowy, który przetworzył ponad 100 milionów rozmów.
Przedmioty
- Algorytmy tekstowe
- Evolutionary Algorithms
- Wielowymiarowa analiza danych
- Bazy danych w data mining
- Eksploracja danych
Propozycje tematów prac dyplomowych
Propozycja Rozprawy Doktorskiej
Multimodalne rozumowanie z wykorzystaniem LLM dla danych finansowych
Głównym celem jest zbadanie mechanizmów, za pomocą których informacje z nieustrukturyzowanych, alternatywnych źródeł danych są przekazywane do cen instrumentów finansowych. Projekt ma na celu weryfikację hipotezy, że analiza heterogenicznych sygnałów (tekstowych, behawioralnych i operacyjnych) pozwala na wcześniejszą identyfikację zmian w paradygmacie biznesowym firmy niż modele tradycyjne.
Badania zaprojektowano jako wielowarstwowe ramy skoncentrowane na integracji wielowymiarowych, heterogenicznych strumieni danych w ujednolicone środowisko predykcyjne. Istotą projektu jest opracowanie multimodalnej architektury zdolnej do synchronizacji klasycznych fundamentalnych wskaźników finansowych z niekonwencjonalnymi danymi alternatywnymi, w tym transkryptami konferencji przetworzonymi przez NLP, nastrojami w mediach społecznościowych i sygnałami OSINT. Nacisk kładziony jest na zjawisko spójności narracji zarządu. Wykorzystując modele LLM, projekt pozwoli na ilościową ocenę semantycznego dopasowania między strategicznymi oświadczeniami korporacyjnymi a obiektywnymi, rzeczywistymi odpowiednikami. Obejmuje to jednoczesne przetwarzanie nieustrukturyzowanego tekstu, statystyk transakcji kartami oraz cech przestrzenno-czasowych uzyskanych ze wzorców geolokalizacji telefonicznej oraz komputerowej analizy obrazu specyficznego dla danej lokalizacji.
Badania będą dalej eksplorować zmianę paradygmatu od tradycyjnych symulacji frekwencyjnych do podejścia oceniającego skuteczność modeli LLM jako modelu zamiast klasycznych metod Monte Carlo lub w połączeniu z nimi w sposób hybrydowy. Chociaż Monte Carlo zapewnia solidną bazę matematyczną do propagacji niepewności, często nie oddają one semantycznej złożoności nieliniowych szoków rynkowych. Niniejszy projekt bada wykorzystanie modeli LLM do przeprowadzania semantycznej syntezy scenariuszy, w której model jest zdolny do generowania stanów kontrfaktycznych w oparciu o ukryte zmienne środowiskowe.
Praca Magisterska
Zastosowanie dużych modeli językowych (LLM) do analizy heterogenicznych danych rynkowych w celu spersonalizowanego wsparcia decyzji inwestycyjnych
Cel: Zaprojektowanie, implementacja i ewaluacja systemu wsparcia decyzji inwestycyjnych wykorzystującego LLM i architekturę RAG (Retrieval-Augmented Generation) do analizy danych rozproszonych.
Problem badawczy: Rozwiązanie problemu "information overload" u inwestorów poprzez agregację sprzecznych danych (giełdowych, makro, raportów) i generowanie spersonalizowanych briefów analitycznych dopasowanych do strategii portfela.
Analiza dokumentacji medycznej z wykorzystaniem modeli językowych i metod statystycznych w prognozowaniu zasobów, czasu i efektów operacji
Cel: Celem pracy jest opracowanie systemu wspomagającego analizę dokumentacji medycznej w kontekście planowania zabiegów chirurgicznych. Projekt zakłada wykorzystanie dużych modeli językowych (LLM) do ekstrakcji kluczowych informacji z opisów medycznych, takich jak diagnozy, historia choroby, wyniki badań i zalecenia. Następnie dane te będą integrowane z klasycznymi metodami analizy statystycznej i uczenia maszynowego w celu:
- Prognozowania zużycia środków medycznych (np. narzędzi, leków, materiałów),
- Szacowania czasu trwania operacji na podstawie podobnych przypadków,
- Oceny prawdopodobnych efektów zabiegu (np. ryzyko powikłań, czas rekonwalescencji).
- Wstępne przetwarzanie danych tekstowych (tokenizacja, normalizacja, anonimizacja),
- Fine-tuning lub wykorzystanie gotowych LLM (np. GPT, BERT) do ekstrakcji informacji,
- Budowę modeli predykcyjnych (regresja, XGBoost, sieci neuronowe),
- Walidację wyników na rzeczywistych lub syntetycznych danych medycznych.
Problem badawczy: Analiza możliwości oceny działań lekarskich przeliczalnymi modelami liczbowymi
Praca Inżynierska
System automatycznego zbierania i normalizacji danych ekonomicznych ze źródeł rozproszonych
Tematyka: Techniczne wyzwania procesu ETL (Extract, Transform, Load) dla danych finansowych.
- Moduł Akwizycji (Extract): Implementacja klientów API i web scrapingu, obsługa błędów i harmonogramowanie.
- Moduł Przetwarzania (Transform): Algorytmy czyszczenia (brakujące wartości, anomalie) i normalizacji danych.
- Moduł Magazynowania (Load): Projekt wydajnej bazy danych (SQL lub Time-Series, np. InfluxDB).
- Moduł Dostępowy (API/UI): REST API lub interfejs do filtrowania i eksportu danych (CSV/JSON).