Biografia
Dr hab. inż. Bartosz Ziółko, prof. AGH, inwestor indywidualny. Był współzałożycielem i Prezesem Zarządu Techmo – spółki technologicznej dostarczającej rozwiązania z zakresu rozpoznawania i generowania mowy.
Absolwent Elektroniki i Telekomunikacji na AGH. Doktorat z Informatyki uzyskał na University of York, a habilitację w 2017 roku. Jest autorem ponad 100 prac naukowych, dwóch patentów przyznanych przez USPTO i jednego przez EPO. Autor książki "Przetwarzanie mowy". Stypendysta Hokkaido University w Japonii oraz uczestnik programu TOP 500 Innovators na Stanford University.
Zainteresowania badawcze
Zainteresowania naukowe obejmują:
- Analiza danych finansowych
- Wnioskowanie z użyciem LLM na danych heterogenicznych
- Automatyczne rozpoznawanie mowy (ASR)
- Przetwarzanie języka naturalnego (NLP)
- Prediagnoza chorób na podstawie mowy
Uczestniczył w ponad 10 krajowych i europejskich projektach badawczych. Firma, którą zbudował, stworzyła system rozpoznawania mowy, który przetworzył ponad 100 milionów rozmów.
Przedmioty
- Algorytmy tekstowe
- Evolutionary Algorithms
- Wielowymiarowa analiza danych
- Bazy danych w data mining
- Eksploracja danych
Propozycje tematów prac dyplomowych
Propozycja Rozprawy Doktorskiej
Multimodalne rozumowanie z wykorzystaniem LLM dla danych finansowych
Projekt badawczy koncentrujący się na rozwoju dużych modeli językowych (LLM) w celu interpretacji i syntezy heterogenicznych strumieni danych finansowych. Wyzwanie polega na łączeniu nieustrukturyzowanego tekstu (raporty, newsy) z danymi liczbowymi (kursy giełdowe, wskaźniki makro) w celu głębszego wnioskowania i eliminacji halucynacji numerycznych.
Praca Magisterska
Zastosowanie dużych modeli językowych (LLM) do analizy heterogenicznych danych rynkowych w celu spersonalizowanego wsparcia decyzji inwestycyjnych
Cel: Zaprojektowanie, implementacja i ewaluacja systemu wsparcia decyzji inwestycyjnych wykorzystującego LLM i architekturę RAG (Retrieval-Augmented Generation) do analizy danych rozproszonych.
Problem badawczy: Rozwiązanie problemu "information overload" u inwestorów poprzez agregację sprzecznych danych (giełdowych, makro, raportów) i generowanie spersonalizowanych briefów analitycznych dopasowanych do strategii portfela.
Analiza dokumentacji medycznej z wykorzystaniem modeli językowych i metod statystycznych w prognozowaniu zasobów, czasu i efektów operacji
Cel: Celem pracy jest opracowanie systemu wspomagającego analizę dokumentacji medycznej w kontekście planowania zabiegów chirurgicznych. Projekt zakłada wykorzystanie dużych modeli językowych (LLM) do ekstrakcji kluczowych informacji z opisów medycznych, takich jak diagnozy, historia choroby, wyniki badań i zalecenia. Następnie dane te będą integrowane z klasycznymi metodami analizy statystycznej i uczenia maszynowego w celu:
- Prognozowania zużycia środków medycznych (np. narzędzi, leków, materiałów),
- Szacowania czasu trwania operacji na podstawie podobnych przypadków,
- Oceny prawdopodobnych efektów zabiegu (np. ryzyko powikłań, czas rekonwalescencji).
- Wstępne przetwarzanie danych tekstowych (tokenizacja, normalizacja, anonimizacja),
- Fine-tuning lub wykorzystanie gotowych LLM (np. GPT, BERT) do ekstrakcji informacji,
- Budowę modeli predykcyjnych (regresja, XGBoost, sieci neuronowe),
- Walidację wyników na rzeczywistych lub syntetycznych danych medycznych.
Problem badawczy: Analiza możliwości oceny działań lekarskich przeliczalnymi modelami liczbowymi
Praca Inżynierska
System automatycznego zbierania i normalizacji danych ekonomicznych ze źródeł rozproszonych
Tematyka: Techniczne wyzwania procesu ETL (Extract, Transform, Load) dla danych finansowych.
- Moduł Akwizycji (Extract): Implementacja klientów API i web scrapingu, obsługa błędów i harmonogramowanie.
- Moduł Przetwarzania (Transform): Algorytmy czyszczenia (brakujące wartości, anomalie) i normalizacji danych.
- Moduł Magazynowania (Load): Projekt wydajnej bazy danych (SQL lub Time-Series, np. InfluxDB).
- Moduł Dostępowy (API/UI): REST API lub interfejs do filtrowania i eksportu danych (CSV/JSON).