Aktualności
Katedra ISIM jest organizatorem Seminarium NeuroMet, corocznej serii spotkań, których celem jest stworzenie platformy do wymiany doświadczeń w zakresie zastosowania sztucznej inteligencji do symulacji i sterowania procesami metalurgicznymi.
Computational Intelligence and Modeling research group
|
(dawna) Grupa Badawcza Optymalizacji i Sztucznej Inteligencji
|
Industry 4.0
Industry 4.0 to konieczność analizy danych procesowych na niespotykaną dotąd skalę ― celem zapewnienia możliwości podejmowania decyzji opartych na pewnej i precyzyjnej informacji. Systemy wspierania podejmowania decyzji ― z drugiej strony ― są rozwijane przez środowiska związane ze sztuczną inteligencją od wielu lat, dzięki czemu technologie informacyjne (IT) były już przygotowane na czwartą rewolucję przemysłową. Czwarta rewolucja przemysłowa ― Industry 4.0 ― wkraczająca obecnie w fazę realizacji, wymusza na gospodarce, producentach, dostawcach i technologach szereg zmian, szczególnie w zakresie informatyzacji i cyfryzacji, jak i sterowania komputerowego. Pierwsza rewolucja związana była z mechaniką, druga ― z produkcją seryjną, trzecia ― sterowaniem i automatyzacją, natomiast obecna, czwarta, to koncepcja cyberfizycznych systemów produkcyjnych. Systemy takie oznaczają pełną integrację maszyn i urządzeń produkcyjnych ― nieraz autonomicznych, skomputeryzowanych, wyposażonych w własny system operacyjny ― z warstwą systemów komputerowych odpowiedzialnych za wizualizację, monitoring, sterowanie i optymalizację procesów produkcyjnych. |
Procesy wirtualne
W ramach działalności wdrożeniowej pracowników Katedry Informatyki Stosowanej i Modelowania Wydziału Inżynierii Metali i Informatyki Przemysłowej AGH w Krakowie realizowane są między innymi projekty związane z unowocześnianiem istniejących systemów produkcyjnych. Działanie realizowane jest równocześnie z rozwijającym się i coraz bardziej popularnym procesem przekształcania procesów produkcyjnych do modelu Industry 4.0. Model taki zakłada usprawnienie procesów produkcji w oparciu o systemy informatyczne wspierającego człowieka w procesie monitorowania i zarządzania procesem produkcji poprzez zapewnienie w nich funkcjonalności pobierania, przechowywania i przetwarzania informacji z procesu produkcyjnego. Systemy informatyczne realizowane przez nasz zespół opierają się na fundamentalnych założeniach technologii Industry 4.0. Zakładają one między innymi wdrożenie systemów opartych o rozproszone sieci czujników, sensorów, specjalistycznych urządzeń pomiarowych, efektorów synchronizowanych w technologii Internet of Things oraz dodatkowo danych i informacji o sterowaniu wprowadzanych przez człowieka. Sam proces produkcyjny (jego elementy składowe, dane wejściowe, rezultaty i parametry procesu) zamodelowany jest w wirtualnej postaci (virtual process), która odwzorowuje realne środowisko i umożliwia jego wydajną analizę i archiwizację danych procesowych. Oprócz standardowej możliwości archiwizowania, monitorowania i sterowania parametrami procesu, system wspomaga też człowieka (operatora/użytkownika) w procesach decyzyjnych, które są dla niego uciążliwe pod kątem realizacji, a mogą być wykonane w sposób automatyczny po odpowiednim zdefiniowaniu modelu danego procesu decyzyjnego. Wykorzystanie specjalistycznych rodzajów efektorów, manipulatorów czy innych mechanizmów cyberautomatyki może też odciążyć człowieka w zadaniach wyczerpujących oraz niebezpiecznych. Kolejną cechą takich systemów są zdecentralizowane systemy podejmowanie decyzji (np. obsługi sytuacji typowych) w oparciu o dane pochodzące z różnych źródeł i zaawansowane metody przetwarzania informacji. |
Eksploracja danych
Metody uczenia maszynowego (machine learning), wywodzące się z badań nad sztuczną inteligencją, pozwalają na generowanie wiedzy w postaci modeli lub reguł ze zbioru danych uczących celem przyszłego wykorzystania tej wiedzy w analizie nowych obiektów. Metody sztucznej inteligencji niejednokrotnie wykorzystywane były już w zagadnieniach inżynierskich i przemysłowych. Metody uczenia maszynowego niewiele różnią się od tych stosowanych w eksploracji danych (data mining) ― główną różnicą jest przeznaczenie, odbiorca wyników końcowych. Eksploracja danych dąży do odkrycia w zbiorze danych prawidłowości, reguł, czy też relacji pomiędzy czynnikami ― celem jej jest odkrywanie wiedzy, a odbiorcą procesu jest człowiek. Uczenie maszynowe ma na celu, natomiast, odkrywanie wzorców, ale takich, które pozwolą na podejmowanie automatycznych decyzji przez komputer. Proces uczenia maszynowego czy odkrywania wiedzy można przedstawić symbolicznie w trzech krokach: |
Cyberfizyczne systemy produkcyjne
Pprocesy wirtualne, smart sensors i data mining stanowią elementy rozwoju współczesnej gospodarki z ukierunkowaniem na cyfryzację i cyberfizyczność przemysłu. Metody uczenia maszynowego w połączeniu z metodami formalizacji wiedzy (technikami semantycznymi) mogą w istotny sposób zwiększyć możliwości wykorzystania wiedzy. Zastosowanie eksploracji danych pozwala na automatyczną akwizycję wiedzy do systemów wspomagających podejmowanie decyzji, w zamian kosztownych i długotrwałych konsultacji z ekspertami, co zapewniło systemom ekspertowym drugą młodość. Możliwość budowania modeli predykcyjnych w oparciu o dane historyczne z opomiarowanego procesu może pozwolić w następnym kroku na sprzężenie zwrotne i informację skierowaną z powrotem do procesu, umożliwiającą optymalizację parametrów sterowania, a tym samym redukcję kosztów, podniesienie czynników jakości czy skrócenie czasu. |
Realizacje
W ramach prac zespołu rozwiązywane były problemy z zakresu:
• aproksymacja właściwości materiałów na podstawie: – składu chemicznego – parametrów obróbki • optymalizacja procesów poprzez identyfikację wpływu parametrów – odkrywanie zależności występujących między parametrami procesu – badanie siły wpływu składowych procesu – budowa bazy wiedzy w postaci zbioru reguł • modelowanie przebiegu zmienności parametrów dyskretnych i ciągłych; przykłady: – predykcja wilgotności mas formierskich – identyfikacja i diagnostyka wad odlewniczych – prognozowanie zużycia narzędzi • tworzenie baz wiedzy – bazy danych dla systemów wspomagania decyzji – bazy danych jako zasoby dla odkrywania wiedzy – bazy danych na potrzeby eksploracji danych – metamodele danych na potrzeby integracji semantycznej • modelowanie semantyczne – uproszczony model rzeczywistości – zrozumiały (przetwarzalny) dla maszyn i ludzi – zunifikowany, formalny język zbudowany z powiązań pojęć i definicji – integracja i interoperabilność danych heterogenicznych, złożonych i rozproszonych – re-użytkowanie komponentów wiedzy – meta-opis komponentów modelowanego systemu • opracowanie systemów informatycznych wspomagających procesy decyzyjne – wyznaczanie parametrów procesu wytwarzania żeliwa ADI w celu uzyskania produktu o zadanych właściwościach fizycznych – systemy konwersji materiałowej – wybór alternatywnych materiałów wytwarzania o podobnych właściwościach fizycznych – bazy wiedzy i informacji o produktach (wyrobach) wytwarzanych z różnego typu materiałów (stale, staliwa, żeliwa, odlewy) – WEBowe systemy informacyjne udostępniające informacje dotyczące parametrów technologii wytwarzania produktów (żeliwo ADI) – systemy informatyczne umożliwiające przewidywanie zużycia narzędzi (proces kucia matrycowego) w oparciu o obliczenia oparte na sieciach neuronowych – systemy predykcji parametrów wyjściowych procesu wytwarzania produktów oparte na modelach bazujących na danych historycznych – systemy agregacji i integracji heterogenicznych źródeł danych umożliwiające kompleksową obsługę procesu leczenia pacjentów (leczenie zaburzeń snu) – automatyczne mechanizmy diagnostyki pacjentów w oparciu o dane z badań laboratoryjnych i rozpoznania lekarskiego – systemy automatycznego i inteligentnego pozyskiwania danych pochodzących z sieci Internet (WEB crawling, WEB scraping)
|