Mike Gerdes
Wykorzystanie drzew decyzyjnych oraz wpływu parametrów ekstrakcji cech do projektowania odpornych sieci czujników
Niezawodne monitorowanie stanu wymaga niezawodności czujników i pochodzących z nich informacji. Systemy złożone są zazwyczaj monitorowane przez wiele czujników, co pozwala na ocenę stanu technicznego oraz aspektów eksploatacyjnych. Gdy jeden z czujników ulega uszkodzeniu, uniemożliwia to obliczenie bieżącego stanu systemu z dotychczasową niezawodnością lub uzyskanie kompletnych informacji o bieżącym stanie. Stan można co prawda monitorować nawet przy niekompletnych danych, ale wyniki takiego monitorowania mogą nie odpowiadać rzeczywistemu stanowi systemu. Sytuacja taka ma miejsce w szczególności, gdy uszkodzony czujnik jest odpowiedzialny za monitorowanie istotnego parametru systemu. Problem uszkodzenia czujnika można rozwiązywać na dwa sposoby. Pierwszy polega na zwiększeniu złożoności systemu, co umożliwia jego sprawniejsze działanie w sytuacji, gdy dane są niekompletne. Drugim sposobem jest wprowadzenie nadmiarowego sprzętu (hardware'u) lub oprogramowania. Niezawodność czujników stanowi krytyczny aspekt systemu. Oczywiście, ze względu na ograniczenia przestrzenne, ekonomiczne i środowiskowe nie wszystkie czujniki w systemie mogą być nadmiarowe. Redundancja powinna dotyczyć wszystkich czujników, które dostarczają istotnych informacji na temat stanu systemu, natomiast dopuszczalne są błędy mniej ważnych czujników. W niniejszej pracy pokazano jak obliczać istotność informacji o systemie dostarczanych przez poszczególne czujniki z wykorzystaniem metod przetwarzania sygnałów oraz drzew decyzyjnych. Zademonstrowano również w jaki sposób parametry przetwarzania sygnałów wpływają na poprawność klasyfikacji metodą drzewa decyzyjnego, a tym samym na poprawność dostarczanych informacji. Drzew decyzyjnych używa się do obliczania i porządkowania cech w oparciu o przyrost informacji charakteryzujący poszczególne cechy. Podczas weryfikacji zastosowanej metody, drzewa decyzyjne wykorzystano do klasyfikacji uszkodzeń celem przedstawienia wpływu różnych cech na dokładność klasyfikacji. Pracę kończy analiza wyników eksperymentów pokazujących w jaki sposób zastosowana metoda pozwala na klasyfikację różnych błędów z 75-procentowym prawdopodobieństwem oraz jak różne opcje ekstrakcji cech wpływają na przyrost informacji.
Decision trees and the effects of feature extraction parameters for robust sensor network design
Reliable sensors and information are required for reliable condition monitoring. Complex systems are commonly monitored by many sensors for health assessment and operation purposes. When one of the sensors fails, the current state of the system cannot be calculated in same reliable way or the information about the current state will not be complete. Condition monitoring can still be used with an incomplete state, but the results may not represent the true condition of the system. This is especially true if the failed sensor monitors an important system parameter. There are two possibilities to handle sensor failure. One is to make the monitoring more complex by enabling it to work better with incomplete data; the other is to introduce hard or software redundancy. Sensor reliability is a critical part of a system. Not all sensors can be made redundant because of space, cost or environmental constraints. Sensors delivering significant information about the system state need to be redundant, but an error of less important sensors is acceptable. This paper shows how to calculate the significance of the information that a sensor gives about a system by using signal processing and decision trees. It also shows how signal processing parameters influence the classification rate of a decision tree and, thus, the information. Decision trees are used to calculate and order the features based on the information gain of each feature. During the method validation, they are used for failure classification to show the influence of different features on the classification performance. The paper concludes by analysing the results of experiments showing how the method can classify different errors with a 75% probability and how different feature extraction options influence the information gain.