Forskjellen mellom beslutningstreet og tilfeldig skog

De hovedforskjell mellom beslutningstreet og tilfeldig skog er det et beslutningstreet er en graf som bruker en forgreningsmetode for å illustrere alle mulige utfall av en beslutning mens en tilfeldig skog er et sett av beslutningstrær som gir det endelige utfallet basert på utgangene til alle dens beslutningstrær.

Maskininnlæring er en applikasjon av kunstig intelligens, som gir et system evnen til å lære og forbedre basert på tidligere erfaring. Beslutningstreet og tilfeldig skog er to teknikker i maskinlæring. Et beslutningstreet kartlegger de mulige resultatene av en rekke relaterte valg. Det er populært fordi det er enkelt og lettere å forstå. Når datasettet blir mye større, er et enkelt beslutningstreet ikke nok til å finne prediksjonen. En tilfeldig skog, som er en samling av beslutningstrær, er et alternativ til dette problemet. Utgangen av den tilfeldige skogen er basert på utgangene til alle beslutningstrinnene.

Nøkkelområder dekket

1. Hva er en beslutning Tree
     - Definisjon, funksjonalitet, eksempler
2. Hva er en tilfeldig skog
     - Definisjon, funksjonalitet, eksempler
3. Forskjellen mellom beslutningstreet og tilfeldig skog
     - Sammenligning av nøkkelforskjeller

Nøkkelord

Beslutningstreet, Maskinlæring, Tilfeldig skog

Hva er beslutningstreet

Et beslutningstreet er et diagram for treform som brukes til å bestemme et handlingsforløp. Hver gren av treet representerer en mulig beslutning, forekomst eller reaksjon. 

Det er flere termer knyttet til et beslutningstreet. Entropi er måling av uforutsigbarhet i datasettet. Etter å ha spalt datasettet, reduseres entropienivået da uforutsigbarheten reduseres. Informasjonsgevinsten er nedgangen i entropien etter å ha spyttet datasettet. Det er viktig å dele dataene på en slik måte at informasjonsøkningen blir høyere. De endelige avgjørelsene eller klassifikasjonene kalles bladknutene. Den øverste eller hovednoden kalles rotnoden. Datasettet bør deles inntil den endelige entropien blir null.

Et enkelt beslutningstreet er som følger.

Figur 1: Beslutningstreet

Over beslutningstreet klassifiserer et sett med frukt. Det er 4 druer, 2 epler og 2 appelsiner. Når du vurderer diameteren mindre enn 5, blir druene kategorisert i den ene siden mens appelsiner og epler inn i den andre siden. Druer kan ikke klassifiseres lenger siden den har null entropi. Når kategorisering basert på fargen, dvs. om fruktrødt er rødt eller ikke, er epler klassifisert i en side mens appelsiner er klassifisert til den andre siden. Dermed klassifiserer dette beslutningstreet et eple, drue eller oransje med 100% nøyaktighet.

Samlet sett er et beslutningstreet lett å forstå, lettere å tolke og visualisere. Det krever ikke mye data forberedelse. Den kan håndtere både numeriske og kategoriske data. På den annen side kan støyen i data føre til overfitting. Dessuten kan modellen også bli ustabil på grunn av små variasjoner.

Hva er tilfeldig skog

Tilfeldig skog er en metode som virker ved å bygge flere beslutnings trær i treningsfasen. Avgjørelsene til flertallet av trærne er den endelige beslutningen av tilfeldig skog. Et enkelt eksempel er som følger.

Anta at det er et sett med frukt (kirsebær, epler og appelsiner). Følgende er de tre beslutningstrær som kategoriserer disse tre frukttyper.

Figur 2: Beslutningstreet 1

Figur 3: Beslutningstreet 2

Figur 4: Beslutningstreet 3

En ny frukt hvis diameter er 3 er gitt til modellen. Denne frukten er oransje i farge og vokser om sommeren. Det første beslutningstreet vil kategorisere det som en oransje. Det andre beslutningstreet vil kategorisere det som en kirsebær mens det tredje beslutningstreet vil kategorisere det som en oransje. Når du vurderer alle tre trær, er det to utganger for oransje. Derfor er den endelige utgangen av den tilfeldige skogen en oransje.

Samlet gir den tilfeldige skogen nøyaktige resultater på et større datasett. Det reduserer også risikoen for overfitting.

Forskjellen mellom beslutningstreet og tilfeldig skog

Definisjon

Et beslutningstreet er et beslutningsstøtteverktøy som bruker en treaktig graf eller beslutningstype og deres mulige konsekvenser, inkludert tilfeldighetshendelser, ressursomkostninger og verktøy. Tilfeldige skoger er en ensemble læringsmetode som opererer ved å bygge en rekke beslutningstrender på treningstid og utlevere klassen avhengig av de enkelte trærne.

overfitting

Det er en mulighet for overfitting i et beslutningstreet. Bruken av flere trær i tilfeldig skog reduserer risikoen for overfitting.

nøyaktighet

En tilfeldig skog gir mer nøyaktige resultater enn et beslutningstreet.

kompleksitet

Et beslutningstreet er enklere og lettere å forstå, tolke og visualisere enn en tilfeldig skog, som er relativt mer kompleks.

Konklusjon

Forskjellen mellom beslutningstreet og tilfeldig skog er at et beslutningstreet er en graf som bruker en forgreningsmetode for å illustrere alle mulige utfall av en beslutning, mens en tilfeldig skog er et sett av beslutningstrær som gir det endelige utfallet basert på utgangene til alle dens beslutningstrær.

Henvisning:

1. Tilfeldig skogsalgoritme - Tilfeldig skogsforklaring | Tilfeldig skog i maskinlæring , Simplilearn, 12. mars 2018, Tilgjengelig her.