Co to jest odchylenie-odchylenie w uczeniu maszynowym?



W tym artykule omówiono koncepcję odchylenia i wariancji w uczeniu maszynowym oraz relację między nimi określającą predykcyjną dokładność modelu.

W , wydajność modelu opiera się na jego przewidywaniach i na tym, jak dobrze uogólnia on na niewidoczne, niezależne dane. Jednym ze sposobów pomiaru dokładności modelu jest uwzględnienie odchylenia i wariancji w modelu. W tym artykule dowiemy się, jak wariancja odchylenia odgrywa ważną rolę w określaniu autentyczności modelu. W tym artykule omówiono następujące tematy:

Nieredukowalny błąd

Dowolny model w formacie jest oceniany na podstawie błędu prognozy na nowym niezależnym, niewidocznym zestawie danych. Błąd to nic innego jak różnica między rzeczywistą wydajnością a przewidywaną wydajnością. Aby obliczyć błąd, dokonujemy sumowania redukowalnego i nieredukowalnego błędu, czyli dekompozycji odchylenia i wariancji.





Nieodwracalny błąd to nic innego jak te błędy, których nie można zredukować niezależnie od żadnego którego używasz w modelu. Jest to spowodowane niezwykłymi zmiennymi, które mają bezpośredni wpływ na zmienną wyjściową. Aby Twój model był wydajny, pozostaje nam możliwy do zredukowania błąd, który musimy zoptymalizować za wszelką cenę.

Zmniejszalny błąd ma dwa składniki - Odchylenie i wariancja , obecność odchylenia i wariancji wpływa na dokładność modelu na kilka sposobów nadmierne dopasowanie, niedopasowanie itp.Przyjrzyjmy się stronniczości i wariancji, aby zrozumieć, jak radzić sobie z redukowalnym błędem w .



Co to jest stronniczość w uczeniu maszynowym?

Odchylenie to w zasadzie to, jak daleko przewidywaliśmy wartość od wartości rzeczywistej. Mówimy, że odchylenie jest zbyt wysokie, jeśli średnie prognozy są dalekie od rzeczywistych wartości.

Wysokie odchylenie spowoduje, że algorytm pominie dominujący wzorzec lub relację między zmiennymi wejściowymi i wyjściowymi. Gdy odchylenie jest zbyt duże, zakłada się, że model jest dość prosty i nie zgłębia złożoności zbioru danych w celu określenia zależności, a tym samympowodując niedopasowanie.

Wariancja w modelu uczenia maszynowego?

W niezależnym, niewidocznym zbiorze danych lub zbiorze walidacyjnym. Jeśli model nie działa tak dobrze, jak w przypadku wytrenowanego zestawu danych, istnieje możliwość, że model ma wariancję. Zasadniczo mówi, jak rozrzucone są przewidywane wartości od wartości rzeczywistych.



Wysoka wariancja w zestawie danych oznacza, że ​​model został przeszkolony z dużą ilością szumu i nieistotnych danych. Powoduje to overfitting w modelu. Kiedy model ma dużą wariancję, staje się bardzo elastyczny i tworzy błędne prognozy dla nowych punktów danych. Ponieważ dostroił się do punktów danych zestawu uczącego.

Spróbujmy także matematycznie zrozumieć pojęcie wariancji odchylenia. Niech zmienna, którą przewidujemy, będzie Y, a inne zmienne niezależne X. Teraz załóżmy, że istnieje zależność między tymi dwiema zmiennymi, że:

merge sort pseudokod c ++

Y = f (X) + e

W powyższym równaniu tutaj jest jest szacowanym błędem o średniej wartości 0. Kiedy tworzymy klasyfikator za pomocą algorytmów takich jak regresja liniowa , itd., oczekiwany kwadratowy błąd w punkcie x wyniesie:

err (x) = Bias2+ Wariancja + nieredukowalny błąd

Zrozummy również, jak odchylenie-wariancja wpłynie na plik Nauczanie maszynowe wydajność modelu.

różnica między xml i html

Jak to wpływa na model uczenia maszynowego?

Zależność między odchyleniem-odchyleniem możemy umieścić w czterech wymienionych poniżej kategoriach:

  1. Wysoka wariancja - wysokie odchylenie - model jest niespójny i średnio niedokładny
  2. Niska wariancja - wysokie odchylenie - modele są spójne, ale średnio niskie
  3. Wysoka wariancja - niskie odchylenie - nieco dokładne, ale niespójne w przypadku średnich
  4. Niska wariancja - niskie odchylenie - jest to idealny scenariusz, model jest średnio spójny i dokładny.

odchylenie-odchylenie w uczeniu maszynowym-edureka

Chociaż wykrywanie odchylenia i wariancji w modelu jest dość oczywiste. Model o dużej wariancji będzie miał niski błąd uczenia i wysoki błąd walidacji. W przypadku wysokiego odchylenia model będzie miał wysoki błąd uczenia, a błąd walidacji będzie taki sam jak błąd uczenia.

Chociaż wykrywanie wydaje się łatwe, prawdziwym zadaniem jest zredukowanie go do minimum. W takim przypadku możemy wykonać następujące czynności:

  • Dodaj więcej funkcji wprowadzania
  • Większa złożoność dzięki wprowadzeniu funkcji wielomianowych
  • Zmniejsz okres regularyzacji
  • Uzyskanie większej ilości danych treningowych

Teraz, gdy wiemy, czym jest odchylenie i wariancja oraz jak wpływa na nasz model, przyjrzyjmy się kompromisowi odchylenie-wariancja.

Kompromis między odchyleniem a odchyleniem

Znalezienie właściwej równowagi między odchyleniem a wariancją modelu nazywane jest kompromisem w zakresie odchylenia i wariancji. Jest to w zasadzie sposób, aby upewnić się, że model nie jest w żadnym przypadku zbyt dopasowany lub niedopasowany.

Jeśli model jest zbyt prosty i ma bardzo mało parametrów, będzie narażony na duże odchylenie i małą wariancję. Z drugiej strony, jeśli model ma dużą liczbę parametrów, będzie miał dużą wariancję i niskie odchylenie. Ten kompromis powinien skutkować doskonale wyważonymi relacjami między nimi. Idealnie, niskie odchylenie i mała wariancja są celem dla każdego modelu uczenia maszynowego.

Całkowity błąd

W każdym modelu uczenia maszynowego dobra równowaga między odchyleniem a wariancją stanowi doskonały scenariusz pod względem dokładności predykcyjnej i unikania nadmiernego dopasowania, a nawet niedopasowania. Optymalna równowaga między odchyleniem a wariancją pod względem złożoności algorytmu zapewni, że model nigdy nie będzie nadmiernie dopasowany lub niedopasowany.

Średni kwadrat błędu w modelu statystycznym jest uważany za sumę kwadratów odchylenia i wariancji oraz wariancji błędu. Wszystko to można umieścić w całkowitym błędzie, w którym mamy w modelu odchylenie, wariancję i błąd nieredukowalny.

Zrozummy, jak możemy zredukować całkowity błąd za pomocą praktycznej implementacji.

Stworzyliśmy klasyfikator regresji liniowej w Regresja liniowa w uczeniu maszynowym artykuł na temat Edureka z wykorzystaniem danych dotyczących cukrzycy w module datasets scikit uczyć się biblioteka.

Kiedy oceniliśmy średni kwadratowy błąd klasyfikatora, otrzymaliśmy całkowity błąd około 2500.

Aby zmniejszyć całkowity błąd, dostarczyliśmy więcej danych do klasyfikatora, aw zamian średni kwadratowy błąd został zredukowany do 2000.

Jest to prosta implementacja zmniejszenia całkowitego błędu poprzez dostarczenie większej ilości danych szkoleniowych do modelu. Podobnie możemy zastosować inne techniki, aby zmniejszyć błąd i zachować równowagę między obciążeniem a wariancją w celu uzyskania wydajnego modelu uczenia maszynowego.

To prowadzi nas do końca tego artykułu, w którym nauczyliśmy się odchylenia odchylenia w Machuine Learning z jego implementacją i przypadkiem użycia. Mam nadzieję, że wszystko, co zostało Ci udostępnione w tym samouczku, jest dla Ciebie jasne.

Jeśli uważasz, że ten artykuł „Odchylenie odchylenia w uczeniu maszynowym” jest odpowiedni, zapoznaj się z zaufana firma zajmująca się edukacją online z siecią ponad 250 000 zadowolonych uczniów rozsianych po całym świecie.

Jesteśmy tutaj, aby pomóc Ci na każdym kroku w Twojej podróży i opracować program nauczania przeznaczony dla studentów i profesjonalistów, którzy chcą być . Kurs ma na celu zapewnienie przewagi w programowaniu w Pythonie i przeszkolenie zarówno podstawowych, jak i zaawansowanych koncepcji Pythona, a także różnych lubić , itp.

Jeśli napotkasz jakiekolwiek pytania, nie krępuj się zadawać je w sekcji komentarzy „Odchylenie-odchylenie w uczeniu maszynowym”, a nasz zespół z przyjemnością odpowie.

co robi programista iOS