Cykl kształcenia: 2020/2021
Nazwa jednostki prowadzącej studia: Wydział Elektrotechniki i Informatyki
Nazwa kierunku studiów: Informatyka
Obszar kształcenia: nauki techniczne
Profil studiów: ogólnoakademicki
Poziom studiów: drugiego stopnia
Forma studiów: niestacjonarne
Specjalności na kierunku: EFA-ZU - inżynieria systemów informatycznych, EFS-ZU - Systemy i sieci komputerowe
Tytuł otrzymywany po ukończeniu studiów: magister inżynier
Nazwa jednostki prowadzącej zajęcia: Katedra Podstaw Elektroniki
Kod zajęć: 11732
Status zajęć: obowiązkowy dla specjalności EFS-ZU - Systemy i sieci komputerowe
Układ zajęć w planie studiów: sem: 2 / W10 L10 / 3 ECTS / Z
Język wykładowy: polski
Imię i nazwisko koordynatora: dr hab. inż. prof. PRz Maciej Kusy
Główny cel kształcenia: Teoretyczna wiedza i praktyczne wykorzystanie wybranych metod inteligencji obliczeniowej
Ogólne informacje o zajęciach: Przedstawienie wybranych algorytmów i narzędzi programistycznych z zakresu sztucznych sieci neuronowych, klasyfikatorów bazujących na funkcji jądra, drzew decyzyjnych, metod klasteryzacji i selekcji cech
Materiały dydaktyczne: Dostępne w wersji elektronicznej na stronie https://mkusy.v.prz.edu.pl/
1 | Bishop C.M. | Pattern Recognition and Machine Learning | Springer. | 2006 |
2 | Tadeusiewicz R. | Sieci neuronowe | Akademicka Oficyna Wydawnicza, Warszawa. | 1993 |
3 | Korbicz J., Obuchowicz A., Uciński D. | Sztuczne sieci neuronowe. Podstawy i zastosowania | Akademicka Oficyna Wydawnicza. | 1994 |
4 | Kecman V. | Learning and Soft Computing. Support Vector Machines, Neural Networks and Fuzzy Logic Models | MIT Press, Cambridge. | 2001 |
5 | Vapnik V. | The nature of statistical learning theory | Springer, New York. | 1995 |
6 | Quinlan J.R. | C4.5: Programs for machine learning | Morgan Kaufman Publishers, San Meteo. | 1993 |
7 | Haykin S. | Neural Networks – a Comprehensive Foundation | Macmillan College Publishing Company, New York. | 1994 |
8 | Ferreira C. | Gene expression programming | Springer-Verlag. | 2006 |
9 | Sutton R.S., Barto A.G. | Reinforcement Learning: An Introduction | MIT Press, Cambridge . | 1998 |
1 | Mathworks Inc. | Matlab Online Documentation | http://www.mathworks.com. | 2018 |
2 | Sherrod P.H. | DTREG - Predictive Modeling Software | http://www.dtreg.com. | 2018 |
1 | Żurada J., Barski M., Jędruch W. | Sztuczne sieci neuronowe | PWN. | 1996 |
2 | Rutkowska D., Piliński M., Rutkowski L. | Sieci neuronowe, algorytmy genetyczne i systemy rozmyte | PWN, Warszawa. | 1997 |
Wymagania formalne: Student zarejestrowany na 2 semestr
Wymagania wstępne w kategorii Wiedzy: Podstawowa wiedza z zakresu matematyki, informatyki; ukończony moduł "Sztuczna inteligencja"
Wymagania wstępne w kategorii Umiejętności: Umiejętność obsługi komputera i korzystania ze środowisk programistycznych
Wymagania wstępne w kategorii Kompetencji społecznych: Brak
MEK | Student, który zaliczył zajęcia | Formy zajęć/metody dydaktyczne prowadzące do osiągnięcia danego efektu kształcenia | Metody weryfikacji każdego z wymienionych efektów kształcenia | Związki z KEK | Związki z PRK |
---|---|---|---|---|---|
01 | Potrafi podać różnice pomiędzy uczeniem nadzorowanym, nienadzorowanym i uczeniem się ze wzmocnieniem | wykład, laboratorium | obserwacja wykonawstwa, referat pisemny |
K_W01+ K_W02+ |
P7S_WG |
02 | Potrafi wyjaśnić podstawy analizy istotności atrybutów danych wejściowych przedstawionych w formie rekordów. | wykład, laboratorium | obserwacja wykonawstwa, raport pisemny |
K_U01+ |
P7S_UW |
03 | Potrafi wyjaśnić zagadnienie klasteryzacji w kontekście uczenia nienadzorowanego. | wykład, laboratorium | obserwacja wykonawstwa, raport pisemny |
K_W02+ |
P7S_WG |
04 | Potrafi zaproponować sieć neuronową do zadanego problemu klasyfikacji. | wykład, laboratorium | obserwacja wykonawstwa, raport pisemny |
K_U01+ K_U07+ |
P7S_UW |
05 | Potrafi wyjaśnić podstawy uczenia głębokich sieci neuronowych | wykład, laboratorium | obserwacja wykonawstwa, raport pisemny |
K_W02+ K_K02+ |
P7S_KR P7S_WG |
Uwaga: W zależności od sytuacji epidemicznej, jeżeli nie będzie możliwości weryfikacji osiągniętych efektów uczenia się określonych w programie studiów w sposób stacjonarny w szczególności zaliczenia i egzaminy kończące określone zajęcia będą mogły się odbywać przy użyciu środków komunikacji elektronicznej (w sposób zdalny).
Sem. | TK | Treści kształcenia | Realizowane na | MEK |
---|---|---|---|---|
2 | TK01 | W01 | ||
2 | TK02 | W01 | MEK01 | |
2 | TK03 | W01 | MEK03 | |
2 | TK04 | W01 | MEK01 | |
2 | TK05 | W01 | MEK01 MEK04 | |
2 | TK06 | W01 | ||
2 | TK07 | W01 | MEK02 | |
2 | TK08 | W01 | MEK01 | |
2 | TK09 | W01 | ||
2 | TK10 | W01 | MEK05 |
Forma zajęć | Praca przed zajęciami | Udział w zajęciach | Praca po zajęciach |
---|---|---|---|
Wykład (sem. 2) | Przygotowanie do kolokwium:
10.00 godz./sem. |
Godziny kontaktowe:
10.00 godz./sem. |
Uzupełnienie/studiowanie notatek:
2.00 godz./sem. Studiowanie zalecanej literatury: 1.00 godz./sem. |
Laboratorium (sem. 2) | Przygotowanie do laboratorium:
10.00 godz./sem. Przygotowanie do kolokwium: 10.00 godz./sem. Inne: 4.00 godz./sem. |
Godziny kontaktowe:
10.00 godz./sem. |
Dokończenia/wykonanie sprawozdania:
5.00 godz./sem. |
Konsultacje (sem. 2) | Przygotowanie do konsultacji:
5.00 godz./sem. |
||
Zaliczenie (sem. 2) | Przygotowanie do zaliczenia:
10.00 godz./sem. |
Zaliczenie pisemne:
2.00 godz./sem. Zaliczenie ustne: 2.00 godz./sem. |
Forma zajęć | Sposób wystawiania oceny podsumowującej |
---|---|
Wykład | Brak |
Laboratorium | |
Ocena końcowa | Na podstawie oceny z laboratorium |
Wymagane podczas egzaminu/zaliczenia
(-)
Realizowane podczas zajęć ćwiczeniowych/laboratoryjnych/projektowych
(-)
Inne
(-)
Czy podczas egzaminu/zaliczenia student ma możliwość korzystania z materiałów pomocniczych : nie
1 | A. Konior; P. Kowalski; M. Kusy; M. Szwagrzyk | Machine learning techniques for explaining air pollution prediction | 2022 |
2 | J. Izydorczyk; P. Kowalski; M. Kusy; M. Szwagrzyk | Estimation of atmospheric boundary layer values in the context of the daily prediction of PM10 air pollution | 2022 |
3 | P. Kowalski; M. Kusy | Algorithms for Triggering General Regression Neural Network | 2022 |
4 | P. Kowalski; M. Kusy | Architecture reduction of a probabilistic neural network by merging k-means and k-nearest neighbour algorithms | 2022 |
5 | P. Kowalski; M. Kusy | Detection of Fraudulent Credit Card Transactions by Computational Intelligence Models as a Tool in Digital Forensics | 2022 |
6 | J. Kielpinska; A. Konior; P. Kowalski; M. Kusy; M. Szwagrzyk | Numerical analysis of factors, pace and intensity of the corona virus (COVID-19) epidemic in Poland | 2021 |
7 | M. Kusy; R. Zajdel | A weighted wrapper approach to feature selection | 2021 |
8 | J. Kluska; M. Kusy; R. Zajdel; T. Żabiński | Fusion of Feature Selection Methods for Improving Model Accuracy in the Milling Process Data Classification Problem | 2020 |
9 | J. Kluska; M. Kusy; R. Zajdel; T. Żabiński | Weighted Feature Selection Method for Improving Decisions in Milling Process Diagnosis | 2020 |
10 | P. Kowalski; S. Kubasiak; M. Kusy; S. Łukasik | Probabilistic Neural Network - parameters adjustment in classification task | 2020 |
11 | J. Kluska; M. Kusy; B. Obrzut; M. Obrzut; A. Semczuk | Prediction of 10-year Overall Survival in Patients with Operable Cervical Cancer using a Probabilistic Neural Network | 2019 |
12 | M. Kusy | Selection of pattern neurons for a probabilistic neural network by means of clustering and nearest neighbor techniques | 2019 |