logo
Karta przedmiotu
logo

Wybrane metody inteligencji obliczeniowej

Podstawowe informacje o zajęciach

Cykl kształcenia: 2024/2025

Nazwa jednostki prowadzącej studia: Wydział Elektrotechniki i Informatyki

Nazwa kierunku studiów: Informatyka

Obszar kształcenia: nauki techniczne

Profil studiów: ogólnoakademicki

Poziom studiów: drugiego stopnia

Forma studiów: stacjonarne

Specjalności na kierunku: H - Cyberbezpieczeństwo i technologie chmurowe, I - Inżynieria inteligentnych systemów informatycznych, S - Systemy i sieci komputerowe

Tytuł otrzymywany po ukończeniu studiów: magister inżynier

Nazwa jednostki prowadzącej zajęcia: Katedra Podstaw Elektroniki

Kod zajęć: 11721

Status zajęć: obowiązkowy dla specjalności S - Systemy i sieci komputerowe

Układ zajęć w planie studiów: sem: 2 / W30 L30 / 4 ECTS / Z

Język wykładowy: polski

Imię i nazwisko koordynatora: dr hab. inż. prof. PRz Maciej Kusy

Terminy konsultacji koordynatora: wg harmonogramu pracy w semestrze zimowym r. akad. 2020/2021

Cel kształcenia i wykaz literatury

Główny cel kształcenia: Teoretyczna wiedza i praktyczne wykorzystanie wybranych metod inteligencji obliczeniowej

Ogólne informacje o zajęciach: Przedstawienie wybranych algorytmów i narzędzi programistycznych z zakresu sztucznych sieci neuronowych, klasyfikatorów bazujących na funkcji jądra, drzew decyzyjnych, metod klasteryzacji i selekcji cech

Materiały dydaktyczne: Dostępne w wersji elektronicznej na stronie https://mkusy.v.prz.edu.pl/

Wykaz literatury, wymaganej do zaliczenia zajęć
Literatura wykorzystywana podczas zajęć wykładowych
1 Bishop C.M. Pattern Recognition and Machine Learning Springer. 2006
2 Tadeusiewicz R. Sieci neuronowe Akademicka Oficyna Wydawnicza, Warszawa. 1993
3 Korbicz J., Obuchowicz A., Uciński D. Sztuczne sieci neuronowe. Podstawy i zastosowania Akademicka Oficyna Wydawnicza. 1994
4 Kecman V. Learning and Soft Computing. Support Vector Machines, Neural Networks and Fuzzy Logic Models MIT Press, Cambridge. 2001
5 Vapnik V. The nature of statistical learning theory Springer, New York. 1995
6 Quinlan J.R. C4.5: Programs for machine learning Morgan Kaufman Publishers, San Meteo. 1993
7 Haykin S. Neural Networks – a Comprehensive Foundation Macmillan College Publishing Company, New York. 1994
8 Ferreira C. Gene expression programming Springer-Verlag. 2006
9 Sutton R.S., Barto A.G. Reinforcement Learning: An Introduction MIT Press, Cambridge . 1998
Literatura wykorzystywana podczas zajęć ćwiczeniowych/laboratoryjnych/innych
1 Mathworks Inc. Matlab Online Documentation http://www.mathworks.com. 2018
2 Sherrod P.H. DTREG - Predictive Modeling Software http://www.dtreg.com. 2018
Literatura do samodzielnego studiowania
1 Żurada J., Barski M., Jędruch W. Sztuczne sieci neuronowe PWN. 1996
2 Rutkowska D., Piliński M., Rutkowski L. Sieci neuronowe, algorytmy genetyczne i systemy rozmyte PWN, Warszawa. 1997

Wymagania wstępne w kategorii wiedzy/umiejętności/kompetencji społecznych

Wymagania formalne: Student zarejestrowany na 2 semestr

Wymagania wstępne w kategorii Wiedzy: Podstawowa wiedza z zakresu matematyki, informatyki; ukończony moduł "Sztuczna inteligencja"

Wymagania wstępne w kategorii Umiejętności: Umiejętność obsługi komputera i korzystania ze środowisk programistycznych

Wymagania wstępne w kategorii Kompetencji społecznych: Brak

Efekty kształcenia dla zajęć

MEK Student, który zaliczył zajęcia Formy zajęć/metody dydaktyczne prowadzące do osiągnięcia danego efektu kształcenia Metody weryfikacji każdego z wymienionych efektów kształcenia Związki z KEK Związki z PRK
01 Potrafi wskazać różnice pomiędzy problemem klasyfikacji i regresji wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_W01+
P7S_WG
02 Potrafi podać różnice pomiędzy uczeniem nadzorowanym, nienadzorowanym i uczeniem się ze wzmocnieniem wykład, laboratorium obserwacja wykonawstwa, referat pisemny K_W02+
P7S_WG
03 Potrafi wyjaśnić podstawy analizy istotności atrybutów danych wejściowych przedstawionych w formie rekordów. wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_U05+
P7S_UW
04 Potrafi wyjaśnić zagadnienie klasteryzacji w kontekście uczenia nienadzorowanego. wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_U05+
P7S_UW
05 Potrafi zaproponować sieć neuronową do zadanego problemu klasyfikacji. wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_U05+
K_K02+
P7S_KR
P7S_UW
06 Potrafi wyjaśnić podstawy budowania drzew decyzyjnych wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_U05+
P7S_UW
07 Potrafi wyjaśnić podstawy uczenia głębokich sieci neuronowych wykład, laboratorium obserwacja wykonawstwa, raport pisemny K_U05+
K_K02+
P7S_KR
P7S_UW

Uwaga: W zależności od sytuacji epidemicznej, jeżeli nie będzie możliwości weryfikacji osiągniętych efektów uczenia się określonych w programie studiów w sposób stacjonarny w szczególności zaliczenia i egzaminy kończące określone zajęcia będą mogły się odbywać przy użyciu środków komunikacji elektronicznej (w sposób zdalny).

Treści kształcenia dla zajęć

Sem. TK Treści kształcenia Realizowane na MEK
2 TK01 Wstęp do zagadnienia sztucznej inteligencji W02 MEK01
2 TK02 Klasyfikacja, predykcja oraz zdolność uogólniania. Wyznaczanie parametrów wydajności: dokładność/błąd, walidacja krzyżowa, macierz konfuzji, czułość, specyficzność, krzywa ROC W02 MEK02
2 TK03 Wybrane algorytmy klasteryzacji oraz klasyfikator najbliższych sąsiadów W02 MEK04
2 TK04 Wielowarstwowa jednokierunkowa sieć neuronowa; algorytm wstecznej propagacji błędów i jego modyfikacje W02 MEK01 MEK02
2 TK05 Popularne modele neuronowe: sieć neuronowa o radialnej funkcji aktywacji, samoorganizująca się mapa cech Kohonena oraz sieć z przekazywaniem żetonu W03 MEK01 MEK02 MEK05
2 TK06 Probabilistyczna sieć neuronowa W02 MEK01
2 TK07 Procedury selekcji i ekstrakcji cech; realizacja za pomocą drzew decyzyjnych, lasów drzew, algorytmu ReliefF; analiza składowych głównych PCA W02 MEK03
2 TK08 Algorytm wektorów wspierających W02 MEK02
2 TK09 Programowanie wyrażeń genetycznych W02
2 TK10 Analiza czułości: lokalna i globalna: metoda Sobola, FAST oraz EFAST W02 MEK03 MEK06
2 TK11 Wybrane algorytmy uczenia się ze wzmocnieniem W02 MEK01
2 TK12 Problem uczenia sieci PNN; dobór współczynników wygładzania: metoda gradientów sprzężonych, algorytmy uczenia się ze wzmocnieniem, metoda pluginów i inne W02 MEK05
2 TK13 Struktura sieci PNN: redukcja, współczynniki wagowe W03 MEK01
2 TK14 Głębokie sieci neuronowe W02 MEK07

Nakład pracy studenta

Forma zajęć Praca przed zajęciami Udział w zajęciach Praca po zajęciach
Wykład (sem. 2) Godziny kontaktowe: 30.00 godz./sem.
Uzupełnienie/studiowanie notatek: 5.00 godz./sem.
Studiowanie zalecanej literatury: 5.00 godz./sem.
Laboratorium (sem. 2) Przygotowanie do laboratorium: 10.00 godz./sem.
Inne: 4.00 godz./sem.
Godziny kontaktowe: 30.00 godz./sem.
Dokończenia/wykonanie sprawozdania: 2.00 godz./sem.
Konsultacje (sem. 2) Przygotowanie do konsultacji: 5.00 godz./sem.
Udział w konsultacjach: 5.00 godz./sem.
Zaliczenie (sem. 2) Przygotowanie do zaliczenia: 15.00 godz./sem.
Zaliczenie pisemne: 2.00 godz./sem.
Zaliczenie ustne: 2.00 godz./sem.

Sposób wystawiania ocen składowych zajęć i oceny końcowej

Forma zajęć Sposób wystawiania oceny podsumowującej
Wykład Brak
Laboratorium Raport pisemny
Ocena końcowa Na podstawie oceny z laboratorium

Przykładowe zadania

Wymagane podczas egzaminu/zaliczenia
(-)

Realizowane podczas zajęć ćwiczeniowych/laboratoryjnych/projektowych
(-)

Inne
(-)

Czy podczas egzaminu/zaliczenia student ma możliwość korzystania z materiałów pomocniczych : nie

Treści zajęć powiazane są z prowadzonymi badaniami naukowymi: tak

1 A. Konior; P. Kowalski; M. Kusy; M. Szwagrzyk Machine learning techniques for explaining air pollution prediction 2022
2 J. Izydorczyk; P. Kowalski; M. Kusy; M. Szwagrzyk Estimation of atmospheric boundary layer values in the context of the daily prediction of PM10 air pollution 2022
3 P. Kowalski; M. Kusy Algorithms for Triggering General Regression Neural Network 2022
4 P. Kowalski; M. Kusy Architecture reduction of a probabilistic neural network by merging k-means and k-nearest neighbour algorithms 2022
5 P. Kowalski; M. Kusy Detection of Fraudulent Credit Card Transactions by Computational Intelligence Models as a Tool in Digital Forensics 2022
6 J. Kielpinska; A. Konior; P. Kowalski; M. Kusy; M. Szwagrzyk Numerical analysis of factors, pace and intensity of the corona virus (COVID-19) epidemic in Poland 2021
7 M. Kusy; R. Zajdel A weighted wrapper approach to feature selection 2021
8 J. Kluska; M. Kusy; R. Zajdel; T. Żabiński Fusion of Feature Selection Methods for Improving Model Accuracy in the Milling Process Data Classification Problem 2020
9 J. Kluska; M. Kusy; R. Zajdel; T. Żabiński Weighted Feature Selection Method for Improving Decisions in Milling Process Diagnosis 2020
10 P. Kowalski; S. Kubasiak; M. Kusy; S. Łukasik Probabilistic Neural Network - parameters adjustment in classification task 2020
11 J. Kluska; M. Kusy; B. Obrzut; M. Obrzut; A. Semczuk Prediction of 10-year Overall Survival in Patients with Operable Cervical Cancer using a Probabilistic Neural Network 2019
12 M. Kusy Selection of pattern neurons for a probabilistic neural network by means of clustering and nearest neighbor techniques 2019