Kæledyr Liv

#  >> Kæledyr Liv >  >> fugle >> Vedrørende dyr

Hvordan stammer udtrykket?

 

Den nøjagtige oprindelse af udtrykket "dyb læring" er uklar, men det tilskrives generelt flere kilder. Her er et par mulige oprindelser:

1. Geoffrey Hintons 2006 Paper :I 2006 offentliggjorde computerforsker Geoffrey Hinton et sædvanligt papir med titlen "Deep Learning:A Tutorial on Deep Neural Networks" i Nature Magazine. Dette papir betragtes som et vartegn inden for kunstige neurale netværk og hjalp med at popularisere udtrykket "dyb læring." Hinton og hans kolleger ved University of Toronto betragtes i vid udstrækning som pionerer i udviklingen af ​​dybe læringsteknikker.

2. Yoshua Bengios brug af udtrykket :Yoshua Bengio, en anden fremtrædende forsker på området, spillede også en betydelig rolle i populariseringen af ​​udtrykket "dyb læring" i de tidlige 2000'ere. Bengio og hans kolleger ved Université de Montréal gennemførte banebrydende forskning på dybe læringsalgoritmer, og han brugte ofte udtrykket "Deep Learning" i sine forskningspublikationer.

3. Indflydelse af kognitiv psykologi :Nogle mener, at inspiration til udtrykket "dyb læring" kan være kommet fra forestillingen om "dyb struktur" i kognitiv psykologi. Dyb struktur er et udtryk, der bruges i sprogvidenskab og kognitiv psykologi til at beskrive den underliggende repræsentation eller syntaks for et sprog, der går ud over overfladeniveauet af ord og sætninger. Dette koncept kan have påvirket forståelsen af ​​dybe læringsmodeller som indfangning af underliggende mønstre og komplekse forhold i data.

4. Sammenligning med traditionel maskinlæring :Udtrykket "dyb læring" blev sandsynligvis opfundet til at differentiere det fra traditionelle maskinlæringsmetoder. Mens traditionelle maskinlæringsalgoritmer ofte er afhængige af lavvandede neurale netværk eller lavvandede repræsentationer af data, involverer dyb læring brugen af ​​dybe neurale netværk med flere skjulte lag. Disse dybe arkitekturer giver mulighed for mere komplekse og hierarkiske funktionsekstraktion, hvilket gør det muligt for modeller at lære repræsentationer på højere niveau.

5. Historisk kontekst :I de tidlige dage af neurale netværksforskning var lavvandede neurale netværk normen, og de stod over for begrænsninger i deres repræsentative evner og evne til at håndtere komplekse problemer. Fremkomsten af ​​kraftfulde computerressourcer, såsom grafiske behandlingsenheder (GPU'er), i slutningen af ​​2000'erne gjorde det muligt at træne dybere neurale netværk effektivt. Denne historiske kontekst bidrog til behovet for et udtryk, der fangede fremskridt og øgede kompleksiteten af ​​disse nye tilgange, og dermed udtrykket "dyb læring" fik trækkraft.

Det er sandsynligvis en kombination af disse faktorer sammen med konvergensen af ​​forskningsindsats og gennembrud, der førte til den udbredte vedtagelse af udtrykket "dyb læring" for at beskrive underfeltet inden for maskinlæring, der fokuserede på dybe neurale netværk.

Copyright Kæledyr Liv alle rettigheder forbeholdes

© da.xzhbc.com