ebook img

APRENDIZAJE PROFUNDO PARA VISIÃfiN ARTIFICIAL PDF

122 Pages·2017·6.72 MB·Spanish
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview APRENDIZAJE PROFUNDO PARA VISIÃfiN ARTIFICIAL

APRENDIZAJE PROFUNDO PARA VISIÓN ARTIFICIAL MauricioDelbracio,JoséLezama,GuillermoCarbajal InstitutodeIngenieríaEléctrica FacultaddeIngeniería UniversidaddelaRepública 2017 Agenda 1 Modeloslineales,generalización 2 RedesNeuronalesPrealimentadas(feedforward) 3 Neuronasartificiales 4 Teoremaaproximaciónuniversal 5 Capacidad,sobreajuste,subajuste 2/32 • wesnormalalafronteradeclasificación • awseloconocecomovectordepesos(“weights” o“weightvector”) vectornormalalafronteradedecisión • abselellama“bias”(de-centrado,sesgo) • Unclasificadorlinealnonecesitamemorizareltrainingdataset (adiferenciadelclasificadork-nn) • Cuántomáslejosdef(x)=0más“seguridad”enlaclasificación (f(x)unaespeciede“score”) Clasificadores Lineales Un clasificador lineal tiene la forma: f(x) = wTx + b 3/32 • Unclasificadorlinealnonecesitamemorizareltrainingdataset (adiferenciadelclasificadork-nn) • Cuántomáslejosdef(x)=0más“seguridad”enlaclasificación (f(x)unaespeciede“score”) Clasificadores Lineales Un clasificador lineal tiene la forma: f(x) = wTx + b • wesnormalalafronteradeclasificación • awseloconocecomovectordepesos(“weights” o“weightvector”) vectornormalalafronteradedecisión • abselellama“bias”(de-centrado,sesgo) 3/32 • Cuántomáslejosdef(x)=0más“seguridad”enlaclasificación (f(x)unaespeciede“score”) Clasificadores Lineales Un clasificador lineal tiene la forma: f(x) = wTx + b • wesnormalalafronteradeclasificación • awseloconocecomovectordepesos(“weights” o“weightvector”) vectornormalalafronteradedecisión • abselellama“bias”(de-centrado,sesgo) • Unclasificadorlinealnonecesitamemorizareltrainingdataset (adiferenciadelclasificadork-nn) 3/32 Clasificadores Lineales Un clasificador lineal tiene la forma: f(x) = wTx + b • wesnormalalafronteradeclasificación • awseloconocecomovectordepesos(“weights” o“weightvector”) vectornormalalafronteradedecisión • abselellama“bias”(de-centrado,sesgo) • Unclasificadorlinealnonecesitamemorizareltrainingdataset (adiferenciadelclasificadork-nn) • Cuántomáslejosdef(x)=0más“seguridad”enlaclasificación (f(x)unaespeciede“score”) 3/32 • En general: datos no son linealmente separables... Clasificadores Lineales • Dadoundataset(x,y),i=1,...,n,cony ∈{1,...,c} i i i • Supongamosquetenemospuntajesdelaforma: s=Wx • Vimosdosmanerasdedefinirunafuncióndeajuste(loss): SVM(hinge) Softmax(logisticregression) (cid:88) (cid:32) (cid:33) Li = j(cid:54)=yimax(0,sj−syi +1) Li =−log (cid:80)ejsyeisj 4/32 • En general: datos no son linealmente separables... Clasificadores Lineales • Dadoundataset(x,y),i=1,...,n,cony ∈{1,...,c} i i i • Supongamosquetenemospuntajesdelaforma: s=Wx • Vimosdosmanerasdedefinirunafuncióndeajuste(loss): SVM(hinge) Softmax(logisticregression) (cid:88) (cid:32) (cid:33) Li = j(cid:54)=yimax(0,sj−syi +1) Li =−log (cid:80)ejsyeisj • Enamboscasos,hayqueminimizarL(W)(+regularización) n (cid:88) L(W)= L(W)+λR(W) i i=1 4/32 • En general: datos no son linealmente separables... Clasificadores Lineales • Dadoundataset(x,y),i=1,...,n,cony ∈{1,...,c} i i i • Supongamosquetenemospuntajesdelaforma: s=Wx • Vimosdosmanerasdedefinirunafuncióndeajuste(loss): SVM(hinge) Softmax(logisticregression) (cid:88) (cid:32) (cid:33) Li = j(cid:54)=yimax(0,sj−syi +1) Li =−log (cid:80)ejsyeisj • Enamboscasos,hayqueminimizarL(W)(+regularización) n (cid:88) L(W)= L(W)+λR(W) i i=1 • Descensoporgradiente: n (cid:88) ∇ L(W)= ∇ L(x,y;W)+λ∇ R(W). W W i i i W i=1 4/32 • En general: datos no son linealmente separables... Clasificadores Lineales • Dadoundataset(x,y),i=1,...,n,cony ∈{1,...,c} i i i • Supongamosquetenemospuntajesdelaforma: s=Wx • Vimosdosmanerasdedefinirunafuncióndeajuste(loss): SVM(hinge) Softmax(logisticregression) (cid:88) (cid:32) (cid:33) Li = j(cid:54)=yimax(0,sj−syi +1) Li =−log (cid:80)ejsyeisj • Enamboscasos,hayqueminimizarL(W)(+regularización) n (cid:88) L(W)= L(W)+λR(W) i i=1 • Descensoporgradienteestocástico,n (cid:28)n: mb (cid:88)nmb ∇ L(W)≈ ∇ L(x,y;W)+λ∇ R(W). W W i i i W i=1 4/32

Description:
multilayer perceptrons (MLPs)): base fundamental del Aprendizaje Profundo. 6 / 32 . intermedias, estas son llamadas capas ocultas (hidden layers).
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.