Bartosz Ziółko

Dr hab. inż. Bartosz Ziółko, prof. AGH

Biografia

Dr hab. inż. Bartosz Ziółko, prof. AGH, inwestor indywidualny. Był współzałożycielem i Prezesem Zarządu Techmo – spółki technologicznej dostarczającej rozwiązania z zakresu rozpoznawania i generowania mowy.

Absolwent Elektroniki i Telekomunikacji na AGH. Doktorat z Informatyki uzyskał na University of York, a habilitację w 2017 roku. Jest autorem ponad 100 prac naukowych, dwóch patentów przyznanych przez USPTO i jednego przez EPO. Autor książki "Przetwarzanie mowy". Stypendysta Hokkaido University w Japonii oraz uczestnik programu TOP 500 Innovators na Stanford University.

Zainteresowania badawcze

Zainteresowania naukowe obejmują:

Uczestniczył w ponad 10 krajowych i europejskich projektach badawczych. Firma, którą zbudował, stworzyła system rozpoznawania mowy, który przetworzył ponad 100 milionów rozmów.

Przedmioty

Propozycje tematów prac dyplomowych

Propozycja Rozprawy Doktorskiej

Multimodalne rozumowanie z wykorzystaniem LLM dla danych finansowych

Głównym celem jest zbadanie mechanizmów, za pomocą których informacje z nieustrukturyzowanych, alternatywnych źródeł danych są przekazywane do cen instrumentów finansowych. Projekt ma na celu weryfikację hipotezy, że analiza heterogenicznych sygnałów (tekstowych, behawioralnych i operacyjnych) pozwala na wcześniejszą identyfikację zmian w paradygmacie biznesowym firmy niż modele tradycyjne.
Badania zaprojektowano jako wielowarstwowe ramy skoncentrowane na integracji wielowymiarowych, heterogenicznych strumieni danych w ujednolicone środowisko predykcyjne. Istotą projektu jest opracowanie multimodalnej architektury zdolnej do synchronizacji klasycznych fundamentalnych wskaźników finansowych z niekonwencjonalnymi danymi alternatywnymi, w tym transkryptami konferencji przetworzonymi przez NLP, nastrojami w mediach społecznościowych i sygnałami OSINT. Nacisk kładziony jest na zjawisko spójności narracji zarządu. Wykorzystując modele LLM, projekt pozwoli na ilościową ocenę semantycznego dopasowania między strategicznymi oświadczeniami korporacyjnymi a obiektywnymi, rzeczywistymi odpowiednikami. Obejmuje to jednoczesne przetwarzanie nieustrukturyzowanego tekstu, statystyk transakcji kartami oraz cech przestrzenno-czasowych uzyskanych ze wzorców geolokalizacji telefonicznej oraz komputerowej analizy obrazu specyficznego dla danej lokalizacji.
Badania będą dalej eksplorować zmianę paradygmatu od tradycyjnych symulacji frekwencyjnych do podejścia oceniającego skuteczność modeli LLM jako modelu zamiast klasycznych metod Monte Carlo lub w połączeniu z nimi w sposób hybrydowy. Chociaż Monte Carlo zapewnia solidną bazę matematyczną do propagacji niepewności, często nie oddają one semantycznej złożoności nieliniowych szoków rynkowych. Niniejszy projekt bada wykorzystanie modeli LLM do przeprowadzania semantycznej syntezy scenariuszy, w której model jest zdolny do generowania stanów kontrfaktycznych w oparciu o ukryte zmienne środowiskowe.


Praca Magisterska

Zastosowanie dużych modeli językowych (LLM) do analizy heterogenicznych danych rynkowych w celu spersonalizowanego wsparcia decyzji inwestycyjnych

Cel: Zaprojektowanie, implementacja i ewaluacja systemu wsparcia decyzji inwestycyjnych wykorzystującego LLM i architekturę RAG (Retrieval-Augmented Generation) do analizy danych rozproszonych.

Problem badawczy: Rozwiązanie problemu "information overload" u inwestorów poprzez agregację sprzecznych danych (giełdowych, makro, raportów) i generowanie spersonalizowanych briefów analitycznych dopasowanych do strategii portfela.

Analiza dokumentacji medycznej z wykorzystaniem modeli językowych i metod statystycznych w prognozowaniu zasobów, czasu i efektów operacji

Cel: Celem pracy jest opracowanie systemu wspomagającego analizę dokumentacji medycznej w kontekście planowania zabiegów chirurgicznych. Projekt zakłada wykorzystanie dużych modeli językowych (LLM) do ekstrakcji kluczowych informacji z opisów medycznych, takich jak diagnozy, historia choroby, wyniki badań i zalecenia. Następnie dane te będą integrowane z klasycznymi metodami analizy statystycznej i uczenia maszynowego w celu:

  • Prognozowania zużycia środków medycznych (np. narzędzi, leków, materiałów),
  • Szacowania czasu trwania operacji na podstawie podobnych przypadków,
  • Oceny prawdopodobnych efektów zabiegu (np. ryzyko powikłań, czas rekonwalescencji).
Praca obejmuje:
  • Wstępne przetwarzanie danych tekstowych (tokenizacja, normalizacja, anonimizacja),
  • Fine-tuning lub wykorzystanie gotowych LLM (np. GPT, BERT) do ekstrakcji informacji,
  • Budowę modeli predykcyjnych (regresja, XGBoost, sieci neuronowe),
  • Walidację wyników na rzeczywistych lub syntetycznych danych medycznych.
Efektem końcowym będzie prototyp aplikacji, która na podstawie dokumentacji pacjenta generuje raport z prognozami dotyczącymi zasobów, czasu i przewidywanych rezultatów operacji.

Problem badawczy: Analiza możliwości oceny działań lekarskich przeliczalnymi modelami liczbowymi


Praca Inżynierska

System automatycznego zbierania i normalizacji danych ekonomicznych ze źródeł rozproszonych

Tematyka: Techniczne wyzwania procesu ETL (Extract, Transform, Load) dla danych finansowych.

  • Moduł Akwizycji (Extract): Implementacja klientów API i web scrapingu, obsługa błędów i harmonogramowanie.
  • Moduł Przetwarzania (Transform): Algorytmy czyszczenia (brakujące wartości, anomalie) i normalizacji danych.
  • Moduł Magazynowania (Load): Projekt wydajnej bazy danych (SQL lub Time-Series, np. InfluxDB).
  • Moduł Dostępowy (API/UI): REST API lub interfejs do filtrowania i eksportu danych (CSV/JSON).