UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY BAKALÁRSKA PRÁCA Bratislava 2011 Roman Kukumberg

Podobné dokumenty
Zadání čtvrté série

BRKOS

Základy automatického riadenia - Prednáška 2

Neineárne programovanie zimný semester 2018/19 M. Trnovská, KAMŠ, FMFI UK 1

Katedra Informatiky Fakulta Matematiky, Fyziky a Informatiky Univerzita Komenského, Bratislava Podobnos slov (Diplomová práca) Martin Vl ák Vedúci: RN

Cvičenie 9 Riešené príklady 1. Príklad min f(x 1, x 2 ) = x x x 1 s.t. x 1 80 x 1 + x Pre riešenie úlohy vykonáme nasledujúce kroky

Informačná a modelová podpora pre kvantifikáciu prvkov daňovej sústavy SR

Priebeh funkcie

Matematika 2 - cast: Funkcia viac premenných

U N I V E R Z I T A K O M E N S K É H O Fakulta matematiky, fyziky a informatiky Katedra informatiky Vybrané kapitoly z teoretickej informatiky-ii Rie

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY Pouºitie teórie extrémnych hodnôt vo finan níctve DIPLOMOVÁ PRÁCA Bratisla

III. Diferenciálny počet funkcie viac premenných (Prezentácia k prednáškam, čast B) Matematická analýza IV (ÚMV/MAN2d/10) RNDr. Lenka Halčinová, PhD.

9. Elastické vlastnosti kry²tálov Cie om tejto predná²ky je zhrnú základné poznatky z mechaniky kontinua. Úlohou je ur i, ako sa deformuje daný kus lá

Biharmonická rovnica - ciže co spôsobí pridanie jedného laplasiánu

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY Optimálne navrhovanie experimentov DIPLOMOVÁ PRÁCA 2012 Bc. Samuel Zmeko

text k predná²ke a úlohy k cvi eniam z vybraných kapitol z matematiky mi²o demetrian 1 1 Funkcionálne rady, rovnomerná konvergencia 1.1 ƒíselné rady -

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY VALUE-AT-RISK A CONDITIONAL VALUE-AT-RISK AKO NÁSTROJE NA MERANIE RIZIKA P

Lorentzova sila a jej (zov²eobecnená") potenciálna energia Marián Fecko KTF&DF, FMFI UK, Bratislava Na predná²ke sme sa dozvedeli, ºe Lorentzova sila

8 Cvičenie 1.1 Dokážte, že pre ľubovoľné body X, Y, Z platí X + Y Z = Z + Y X. 1.2 Dokážte, že pre ľubovoľné body A, B, D, E, F, G afinného priestoru

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY BEHAVIORÁLNE VPLYVY NA SIETE FINAN NÝCH SUBJEKTOV Diplomová práca 2013 Bc.

Vizualizace geometrických algoritmů

4. Pravidlo ret azenia. Často sa stretávame so skupinami premenných, ktoré zložitým spôsobom závisia od iných skupín premenných. Pravidlo ret azenia p

DP.pdf

Viacrozmerné úlohy RBC-typu

Univerzita Karlova v Praze Matematicko-fyzikální fakulta BAKALÁ SKÁ PRÁCE Estera Vörösová Stochastické modely pro posloupnosti nervových impuls Katedr

2.5. Dotyčnica krivky, dotykový kužeľ. Nech f je krivka a nech P V (f) (t.j. m P (f) 1). Ak m P (f) = r a l je taká priamka, že I P (f, l) > r, potom

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY ANALÝZA A NÁVRH NUMERICKÝCH ALGORITMOV NA RIE ENIE NELINEÁRNYCH ROVNÍC BLA

FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY UNIVERZITA KOMENSKÉHO V BRATISLAVE Ekonomická a nan ná matematika Asymptotické metódy oce ovania ázijských ty

Optimal approximate designs for comparison with control in dose-escalation studies

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY UƒENIE INVARIANTNÝCH SENZO-MOTORICKÝCH REPREZENTÁCIÍ POHYBOV UCHOPOVANIA P

Univerzita Komenského v Bratislave Fakulta matematiky, fyziky a informatiky Katedra aplikovanej matematiky a ²tatistiky Hodnotenie výkonnosti portfóli

Prenosový kanál a jeho kapacita

Matematicko-fyzikálna fakulta Univerzity Karlovej v Prahe SPRÁVA O TUDENTSKOM FAKULTNOM GRANTE Marek Martaus Testování prototyp modul vnit ního detekt

Inteligentné rozhodovacie systémy Heuristické prehľadávanie SP Október, 2018 Katedra kybernetiky

Teória pravdepodobnosti Zákony velkých císel

Informačné technológie

Oceňovanie amerických opcií p. 1/17 Oceňovanie amerických opcií Beáta Stehlíková Finančné deriváty, FMFI UK Bratislava

Experimenty s ekonomickAmi princApmi

UNIVERZITA KOMENSKÉHO V BRATISLAVE fakulta matematiky, fyziky a informatiky Aproximácia cien dlhopisov v dvojfaktorových modeloch úrokových mier Diplo

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY MODELOVANIE PRÍJMOV A VÝDAVKOV NA ZDRAVOTNÚ STAROSTLIVOS Diplomová práca B

MO_pred1

Pokrocilé programovanie XI - Diagonalizácia matíc

Axióma výberu

Aplikace matematiky- záverečná práca Juraj Bodík 28. septembra 2017 Definície Žena - objekt ohodnotený celým číslom. Každé dve ženy sa dajú porovnat a

Viacnásobne použitelné oblasti spolahlivosti pre viacrozmernú kalibráciu

1 Priebeµzné písomné zadanie µc.1. Príklady je potrebné vypoµcíta t, napísa t, a odovzda t, na kontrolu na nasledujúcej konzultácii. Nasledujúce integ

Pokrocilé spracovanie obrazu - Fourierová transformácia

Metódy dokazovanie v matematike 1 Základné pojmy Matematika exaktná veda vybudovaná DEDUKTÍVNE ZÁKLADNÉ POJMY základy každej matematickej teórie sú in

Microsoft Word - 6 Výrazy a vzorce.doc

Žiadosť o prídavok na dieťa

Princípy tvorby softvéru Programovacie paradigmy

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY STRIEBORNÁ EKONOMIKA Diplomová práca Bratislava 2012 Bc. Zuzana Benkovská

Microsoft Word - Transparencies03.doc

Univerzita Karlova v Prahe Matematicko - fyzikálna fakulta Bakalárska práca Veronika Betíková tatistické prístupy modelovania stratovosti pri zlyhaní

Susedov rozli²ujúci index grafu Bakalárska práca pre ²tudijný program Matematika alebo Ekonomická a nan ná matematika v akademickom roku 2019/20 vedúc

A 1

Slovenská technická univerzita Fakulta elektrotechniky a informatiky Mosquitto Telemetry Transport protokol pre IoT Tímové zadanie z predmetu Intelige

Vzt'ah tenzorov T ij a σ ij v mechanike tekutín Marián Fecko KTF&DF, FMFI UK, Bratislava Ciel'om je pozriet' sa vzt'ah tenzorov T ij a σ ij. Oba súvis

Microsoft Word - DEOV.doc

Microsoft Word - skripta3b.doc

Jozef Kiseľák Sada úloh na precvičenie VIII. 15. máj 2014 A. (a) (b) 1

8

Czêœæ+informatyczna+po+korekcie.pdf

VZTAH STUDENTŮ VŠ K DISCIPLÍNÁM TEORETICKÉ INFORMATIKY

Snímka 1

Princípy tvorby softvéru Modelovanie domény

Bariéra, rezonančné tunelovanie Peter Markoš, KF FEI STU February 25, 2008 Typeset by FoilTEX

Microsoft PowerPoint - Ch+ęmia 2008

XXVI b 07 Navrh VZN granty spojene.pdf

OBAL1-ZZ.vp

Úroveň strojového kódu procesor Intel Pentium Pamäťový operand Adresovanie pamäte Priama nepriama a indexovaná adresa Práca s jednorozmerným poľom Pra

1 Portál pre odborné publikovanie ISSN Heuristický adaptívny PSD regulátor založený na miere kmitavosti Šlezárová Alexandra Elektrotechnika

Čiastka 064/2004

Paralelné algoritmy, cast c. 2

Úvod do lineárnej algebry Monika Molnárová Prednášky 2006

Jednotkový koreň (unit root), diferencovanie časového radu, unit root testy Beáta Stehlíková Časové rady, FMFI UK, 2011/2012 Jednotkový koreň(unit roo

Strana 5526 Zbierka zákonov č. 590/2003 Čiastka NARIADENIE VLÁDY Slovenskej republiky zo 17. decembra 2003 o skúškach odbornej spôsobilosti pr

Problémové správanie žiakov stredných škôl;

Numerické riešenie všeobecnej (klasickej) DMPK rovnice.

Základné pravdepodobnostné modely v teórii spoľahlivosti

Microsoft Word - HoreckaHrvol.doc

MZ.pdf

1. KOMPLEXNÉ ČÍSLA 1. Nájdite výsledok operácie v tvare x+yi, kde x, y R. a i (5 2i)(4 i) b. i(1 + i)(1 i)(1 + 2i)(1 2i) (1 7i) c. (2+3i) a+bi d

Operačná analýza 2

Základné stochastické procesy vo financiách

ARMA modely čast 3: zmiešané modely (ARMA) Beáta Stehlíková Časové rady, FMFI UK ARMA modely časť 3: zmiešané modely(arma) p.1/30

Microsoft Word - mnohouholnik.doc

1 Rekurencie este raz riesenia niektorych rekurencii z cvik. mame danu rekurenciu napr T (n) = at ( n b ) + k. idea postupu je postupne rozpisovat cle

SRPkapitola06_v1.docx

Komplexný informa ný a monitorovací systém Monitorovanie biotopov a druhov európskeho významu Používate ská dokumentácia KIMS modul Mobilná aplikácia

Dodatok č. 1 k zmluve o poskytnutí dôverných štatistických údajov na vedecké účely č. zmluvy ŠÚ SR: ZML-6-6/ č. zmluvy CVTI SR: 52/Motory/2014

Microsoft Word - Final_test_2008.doc

Princípy tvorby softvéru Agile, Lean, Lean Startup

03_ControlFlow.dvi

Snímka 1

Monday 25 th February, 2013, 11:54 Rozmerová analýza M. Gintner 1.1 Rozmerová analýza ako a prečo to funguje Skúsenost nás učí, že náš svet je poznate

Pocítacové modelovanie - Šírenie vln v nehomogénnom prostredí - FDTD

Microsoft Word - Diskusia11.doc

Princípy tvorby softvéru Perzistencia, databázy

Operačná analýza 2

Prepis:

UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY BAKALÁRSKA PRÁCA Bratislava 2011 Roman Kukumberg

Proximal-gradient, metóda konvexného programovania BAKALÁRSKA PRÁCA Roman Kukumberg UNIVERZITA KOMENSKÉHO V BRATISLAVE FAKULTA MATEMATIKY, FYZIKY A INFORMATIKY KATEDRA APLIKOVANEJ MATEMATIKY A TATISTIKY 9.1.9 aplikovaná matematika ekonomická a nan ná matematika Vedúci bakalárskej práce: RNDr. Mária Trnovská, PhD. Kód práce: 6a1b8de2-2295-47e0-8b36-0b2b45bd12eb BRATISLAVA 2011

ƒestné prehlásenie ƒestne prehlasujem, ºe som túto bakalársku prácu vypracoval samostatne s vyuºitím teoretických vedomostí a s pouºitím uvedenej odbornej literatúry. Bratislava, 2. jún 2011... Roman Kukumberg

Po akovanie Aj touto cestou by som sa chcel po akova svojej vedúcej RNDr. Márii Trnovskej, PhD. za cenné rady a pripomienky pri písaní tejto bakalárskej práce.

Abstrakt KUKUMBERG, Roman: Proximal-gradient, metóda konvexného programovania [Bakalárska práca], Univerzita Komenského v Bratislave, Fakulta matematiky, fyziky a informatiky, Katedra aplikovanej matematiky a ²tatistiky; vedúci práce: RNDr. Mária Trnovská, PhD., Bratislava, 2011 Bakalárska práca sa zaoberá tzv. proximal gradient metódou konvexného programovania, ktorá slúºi na optimalizáciu konvexných nediferencovate ných funkcií ako neohrani eného problému iºe bez väzieb). Základným prvkom metódy je tzv. proximal operátor, pod a ktorého je metóda pomenovaná. Zaoberáme sa s rôznymi modikáciami metódy ako je zrýchlená proximal gradient metóda a spádová proximal gradient metóda. Práca obsahuje taktieº analýzu konvergencie pôvodnej aj zrýchlenej metódy, kde sa ukáºe, ºe obe konvergujú rýchlej²ie ako klasické subgradientné metódy. K ú ové slová: gradientné metódy, konvexné programovanie, konvexné nediferencovate né funkcie, subgradienty, proximal operátor, proximal gradient metóda

Abstrakt KUKUMBERG, Roman: Proximal-gradient method of convex optimization [Bachelor's thesis], COMENIUS UNIVERSITY; Faculty of Mathematics, Physics and Informatics; Department of Applied Mathematics and Statistics ; thesis supervisor: RNDr. Mária Trnovská, PhD., Bratislava, 2011 Bachelor's thesis deals with the so-called proximal gradient method of convex optimization, which is used for optimization of convex nondierentiable functions as unconstrained problem without bonds). An essential element of the method is called proximal operator, after which is the method called. We deal with various modications of the method such as accelerated proximal gradient method and descent proximal gradient method. The thesis also includes convergence analysis of the classic and accelerated method, which shows that both of them converge faster than subgradient methods. Key words: gradient methods, convex optimization, convex nondierentiable functions, subgradients, proximal operator, proximal gradient method

Obsah 1 Úvod 1 2 Konvexné programovanie 4 2.1 Konvexné funkcie.............................. 4 2.2 Úloha konvexného programovania..................... 7 2.3 Subgradienty................................ 8 2.4 Subgradientné metódy konvexného programovania............ 13 3 Proximal-gradient metóda 15 3.1 Proximal operátor.............................. 15 3.2 Algoritmus proximal-gradient metódy................... 22 3.3 Konvergencia proximal-gradient metódy................. 24 4 Zrýchlená proximal gradient metóda 29 4.1 Konvergencia zrýchlenej proximal gradient metódy........... 30 4.2 Descent verzia zrýchlenej proximal gradient metódy........... 34 4.3 Nová modikácia proximal gradient metódy............... 34 5 Numerické experimenty 35 5.1 Vplyv po tu nenulových prvkov v optimálnom rie²ení na rýchlos dosiahnutia rie²enia............................... 37 5.2 Vplyv zmeny poºadovanej presnosti na rýchlos dosiahnutia rie²enia.. 39 5.3 Vplyv rozmerov úlohy na rýchlos dosiahnutia rie²enia.......... 40 5.4 Vplyv vzdialenosti ²tartovacieho bodu od optima na rýchlos dosiahnutia rie²enia.................................... 41 5.5 Porovnanie metód.............................. 42 6 Záver 48 7 Literatúra 49 8 Príloha - zdrojové kódy programov 50

1 Úvod V optimalizácii neexistujú optimálne metódy na rie²enie úloh. ƒasto sa stretávame s potrebou rie²i úlohy s nediferencovate nými konvexnými funkciami. Jednou z moºností ako dané úlohy rie²i sú tzv. subgradientné metódy konvexného programovania, ktoré ako smer optimalizácie vyuºívajú subgradienty. Subgradientné metódy majú v²ak mnoho nevýhod, sú ve mi pomalé a nemajú dobré ukon ovacie kritériá. Tieto metódy nie sú spádovými metódami, nerastúcos ú elovej funkcie nie je zaru ená. Vä ²ina spôsobov vo by kroku taktieº nezaru uje konvergenicu týchto metód. Vzh adom na nevýhody subgradientných metód boli vytvorené iné metódy na rie²enie úloh konvexného programovania s nediferencovate nými funkciami. Medzi tieto metódy patrí aj proximal gradient metóda. Proximal gradient metóda rie²i úlohy, ktoré majú ²peciálnu ²truktúru min fx) = gx)+hx), kde sa ú elová funkcia dá rozdeli na konvexnú diferencovate nú as gx) a konvexnú nediferencovate nú as hx). x Proximal gradient je spádová metóda, hodnota ú elovej funkcie po kaºdom kroku klesá alebo ostáva rovnaká. Klasické subgradientné metódy majú zloºitos O1/ɛ 2 ), o znamená, ºe potrebujeme O1/ɛ 2 ) iterácii aby sa na²iel ɛ-suboptimálny bod sp ajúci fx k) ) ˆf ɛ. Proximal gradient metóda má v oboch prípadoch vo by kroku lep²iu zloºitos O1/ɛ), sta í nám menej iterácii na dosiahnutie tej istej presnosti ɛ. Av²ak proximal gradient metóda sa dá vylep²i, touto úpravou dosahuje e²te lep²iu zloºitos O1/ ɛ). Upravený algoritmus sa nazýva zrýchlena proximal gradient metóda alebo proximal gradient metóda s extrapoláciou. Zrýchlená metóda v²ak nemá vlastnos nerastúcosti ú elovej funkcie fx k) ) fx k 1) ) tak ako pôvodná verzia algoritmu. Z uvedeného dôvodu existuje al²ia modikácia proximal gradient metódy, ktorá túto vlastnos sp a. Nazýva sa spádová descent) verzia zrýchlenej proximal gradient metódy. Vlastnos nerastúcosti ú elovej funkcie sp a taktieº nová modikácia proximal gradient metódy, ktorú navrhneme s ú elom al²ieho vylep²enia metódy. V reálnom svete nachádza proximal gradient metóda vyuºitie na od²umovanie signálu, kompresiu a zaostrovanie deblur) obrázkov a fotiek. Proximal gradient metóda a jej 1

modikácie majú dostatok presnosti a rýchlosti pre rie²enie ve korozmerných problémov. Práca obsahuje teoretickú analýzu proximal gradient metódy, pri spracovaní sme erpali najmä z [1]. Práca pozostáva zo ²tyroch hlavných astí. V prvej asti práce zhrnieme základné vedomosti o konvexných funkciách a konvexnom programovaní, následne zadenujeme subgradienty, ktoré sú analógiou ku gradientom pri nediferencovate ných funkciách. Spomenieme ich vlastnosti a podmienky optimality pre nediferencovate né funkcie, ktoré sú pomocou nich denované. V al²ej asti sa oboznámime s proximálnym operátorom, základným prvkom proximal gradient metódy, s jeho vlastnos ami a taktieº so samotnou proximal gradient metódou. Práca takisto obsahuje analýzu konvergencie, pri spracovaní sme vyuºili hlavne zdroj [1]. V tretej asti sa budeme venova rôznym modikáciám metódy, predstavíme si zrýchlenú metódu a vy²etríme jej konvergenciu. Taktieº navrhneme novú modikáciu metódy. V al²ej kapitole sa venujeme numerickým experimentom s proximal gradient metódou a jej upravenými verziami. Skúmame napríklad vplyv po tu nenulových prvkov v optimálnom rie²ení na rýchlos rie²enia úloh pomocou danej metódy. Metódy otestujeme aj na ve korozmerných úlohách. 2

Notácia: 0 x C I C - indikátorová funkcia I C x) = inak P C - projekcia na mnoºinu C, P C x) = argmin u x 2 2 u C Df) - deni ný obor funkcie f fx) - gradient funkcie f v bode x fx) - subdiferenciál funkcie f v bode x 2 fx) - Hessova matica funkcie f epif) - epigraf funkcie f x 1 = n i=1 x i x 2 - Euklidovská norma, x 2 = n i=1 x2 i ˆx - bod optima, optimálne rie²enie ˆf - optimálna hodnota funkcie f v bode ˆx L - Lipschitzovská kon²tanta ɛ - presnos x + - bod nasledujúcej iterácie x 0 - po iato ný/²tartovací bod t, t k - d ºka kroku xná / v k-tej iterácii argmin - argument minima prox h x) - proximálny operátor funkcie h v bode x 3

2 Konvexné programovanie V nasledújúcej kapitole zhrnieme základné poznatky o konvexných mnoºinách a funkciách, spomenieme hlavne vlastnosti, ktoré budeme v al²om postupe vyuºíva. Taktieº sformulujeme základnú úlohu konvexného programovania. Kapitola bola spracovaná na základe poznatkov získaných zo zdrojov [1], [2], [4] a [5]. 2.1 Konvexné funkcie Denícia 2.1. Mnoºina C R m sa nazýva konvexná, ak pre kaºdé dva body x, y patriace mnoºine C obsahuje aj celú úse ku [x, y] medzi nimi. Poznámka 2.1. Ekvivalentne: Mnoºina C sa nazýva konvexná, ak pre kaºdé dva body x, y C obsahuje aj ich kaºdú konvexnú kombináciu. Teda λx + 1 λ)y C pre 0 λ 1. Vlastnosti konvexných mnoºín: Prienik konvexných mnoºín je konvexná mnoºina. Lineárna transformácia konvexnej mnoºiny je konvexná mnoºina. Obr. 1: Denícia 1: konvexná mnoºina, nekonvexná mnoºina, nekonvexná mnoºina, konvexná mnoºina Denícia 2.2. Funkciu n-premenných fx) denovanú na konvexnej mnoºine C R n nazývame konvexnou funkciou, ak pre kaºdú dvojicu rôznych bodov x, y C a ubovolné íslo 0 λ 1 platí: fλx + 1 λ)y) λfx) + 1 λ)fy) 4

0 x C Príklad 2.1. Indikátorová funkcia konvexnej mnoºiny C denovaná ako I C = inak je konvexná funkcia. Obr. 2: Denícia 2 Veta 2.1. podmienky 1.rádu): Nech fx) : R n R má spojité prvé parciálne derivácie. Potom funkcia fx) je konvexná práve vtedy, ke platí: y x : fy) fx) fx) T y x) 1) Obr. 3: Vetapodmienky 1.rádu) 5

Veta 2.2. podmienky 2.rádu): Nech fx) : R n R má spojité druhé parciálne derivácie. Potom funkcia fx) je konvexná práve vtedy, ke platí x : 2 fx) je kladne semidenitná matica. Denícia 2.3. Funkcia fx) : R n R sa nazýva silnokonvexná, ak existuje β > 0 také, ºe pre v²etky x y R n, 0 λ 1 platí: fλx + 1 λ)y) + βλ1 λ) x y 2 λfx) + 1 λ)fy) Veta 2.3. Nech fx) : R n R má spojité druhé parciálne derivácie. Potom funkcia fx) je silnokonvexná práve vtedy, ak existuje β > 0 tak, ºe pre v²etky x, s R n platí: s T 2 fx)s > βs T s Vlastnosti silnokonvexných funkcií: Ak fx) je konvexná funkcia a hx) = α x 2 2, tak ich sú et F x) = fx) + hx) je silnokonvexnou funkciou. Mnoºina S b = {x R n fx) b} je konvexná, uzavretá a ohrani ená. Silnokonvexná funkcia má vºdy práve jedno minimum. Denícia 2.4. Epigraf funkcie fx) : R n R denujeme ako: epif) = {x, t) x Df), fx) t}, o je podmnoºina R n+1. Epi znamená "nad", a preto epigraf znamená "nad grafom".) Denícia 2.5. Konvexná funkcia sa nazýva uzavretá, ak má uzavretý konvexný epigraf. 6

Obr. 4: Denícia 4 - Epigraf funkcie f 2.2 Úloha konvexného programovania Za základnú úlohu konvexného programovania moºno povaºova úlohu tvaru: min x f 0 x) f i x) 0 i = 1,..., m kde funkcie f i x) : R n R i = 0,..., m sú konvexné, sp ajú Deníciu 2.2. Z toho vyplýva, ºe oblas, na ktorej h adáme minimumoptimalizujeme), je konvexná. Úloha konvexného programovania sa preto môºe charakterizova ako h adanie minima konvexných funkcií na konvexných mnoºinách. Výhodou konvexného programovania je fakt, ºe kaºdé lokálne minimum ú elovej funkcie f 0 x) je zárove globálnym minimom a mnoºina v²etkých miním je konvexná. al²ou výhodou je fakt, ºe optimalizujeme na konvexnej mnoºine, o umoºnoje prechod z ubovo ného bodu x mnoºiny do akéhoko vek iného jej bodu po úse ke. 7

2.3 Subgradienty Ako vieme z predchádzajúcej kapitoly, úlohou konvexného programovania je nájs minimum konvexných funkcií. Pre diferencovaté né konvexné funkcie poznáme podmienky optimality a aj mnohé metódy konvexného programovania na ich optimalizáciu. ƒastokrát v²ak treba optimalizova nediferencovate né funkcie. Pri nediferencovate ných funkciách existuje analógia k gradientom zvaná subgradienty, ktorým sa budeme v tejto kapitole venova. Spomenieme vlastnosti subgradientov, pomocou nich zadenjeme podmienky optimality nediferencovate ných funkcií a taktieº si ukáºeme subgradientné metódy konvexného programovania. Pri písaní tejto kapitoly sme vyuºili informácie z literatúry [1],[3] a [6]. Denícia 2.6. Nech je fx) : R n R konvexná funkcia. Vektor g R n nazývame subgradient funkcie f v bode x Df) ak platí: fz) fx) + g T z x), z Df) 2) Poznámka 2.2. Pre konvexnú diferencovate nú funkciu f je subgradient rovný gradientu funkcie pre kaºdé x. Ke ºe f je konvexná a diferencovate ná funkcia, platí pre u pod a vety 2.1.podmienky 1.rádu) vz ah: z : fz) fx) fx) T z x), kde fx) je gradient funkcie f v bode x. Z tohto vz ahu vidíme, ºe vektor fx) sp a deníciu subgradientu. Poznámka 2.3. Subgradient existuje aj v bodoch x, v ktorých funkcia nie je diferencovate ná. Av²ak v týchto bodoch nemusí by subgradient jednozna ne denovaný, t.j. existuje mnoºina vektorov, ktoré sú subgradientami danej funkcie v bode x. Táto konvexná mnoºina sa nazýva subdiferenciál v bode x a zna í sa fx). Denícia 2.7. Funkcia f sa nazýva subdiferencovate ná v x, ak existuje aspo jeden subgradient v x. Funkcia f sa nazýva subdiferencovate ná, ak existuje subgradient v kaºdom bode jej deni ného oboru. Príklad 2.2. Subgradient absolútnej hodnoty x Pre hodnoty x 0 je subdiferenciál absolútnej hodnoty jednoprvkovou mnoºinou, iºe 8

Obr. 5: Denícia 5 - Subgradienty funkcie f subgradient je v týchto bodoch jednozna ne denovaný. Ak je bod x z intervalu, 0) tak je subdiferenciál rovný fx) = 1. Pre body x z intervalu 0, ) naopak platí fx) = 1. V oboch predo²lých prípadoch je subgradient v týchto bodoch rovný gradientu. Preto nás najviac zaujíma bod nediferencovate nosti funkcie. Ak x = 0 vieme, ºe pre subgradient platí nerovnos 2) z Denície 2.6.: fz) fx) + g T z x), z Df). V na²om prípade sa táto nerovnos zjednodu²í na tvar z gz, z Df). Z toho dostávame, ºe subdiferenciál funkcie v bode x = 0 je mnoºina f0) = 1, 1 a subgradient je ubovo ným bodom tohto itervalu. Obr. 6: Subdiferenciál absolútnej hodnoty 9

Obr. 7: f = maxx, x 2 ) x x 0, 1 Príklad 2.3. Subgradient funkcie f = maxx, x 2 ) = x 2 x 0, 1 Najzaujímavej²ie body x funkcie f budú tie, v ktorých sa pretínajú funkcie x a x 2. Sú to body x 1 = 0 a x 2 = 1. V ostatných bodoch sa subgradient rovná gradientu funkcie, ktorá má na danom intervale vä ²iu funk nú hodnotu. Subgradient v bode x 1 = 0: Pre bod x 1 sa nerovnos 2) z denície subgradientu zredukuje na tvar: z fz) 0 + gz 0). Ak z, 0 : z 2 gz z g Aby subgradient g sp al nerovnos pre v²etky z z intervalu musí by g 0. Ak z 0, ) : z gz 1 g Spojením predo²lých dvoch podmienok pre g sp ame deni nú nerovnos pre v²etky z, a preto subgradient v bode x 1 je ubovolný bod z intervalu 0, 1. Teda subdiferenciál v tomto bode je: f0) = 0, 1 = x 2 ) 0), x 0). Subgradient v bode x 2 = 1: Pre bod x 2 sa nerovnos 2) z denície subgradientu zjednodu²í na tvar: z fz) 1 + gz 1). 10

Ak z, 1 : z 1 + gz 1) z 1 gz 1) 1 g Ak z 1, ) : z 2 1 + gz 1) z 2 1 gz 1) z + 1 g Aby subgradient g sp al nerovnos pre v²etky z z daného intervalu musí by g 2. Spojením podmienok pre g sp ame nerovnos z denície v bode x 2 pre v²etky z, a preto subdiferenciál v bode x 1 je: f1) = 1, 2 = x 1), x 2 ) 1). Vidíme, ºe v oboch prípadoch je subgradient v bode "zlomu"x i ubovo ný bod z intervalu f 1 x i ), f 2 x i ).Tento jav platí aj v²eobecne pri funkciách typu fx) = max{f 1 x), f 2 x)}, kde funkcie f 1 x), f 2 x) sú konvexné a diferencovate né. Príklad 2.4. Subdiferenciál Euklidovskej normy x 2 v bode 0 Zredukujeme nerovnos z Denície 2.6. a následne pouºijeme Cauchy - Schwarzovú nerovnos. z 2 g 2 z 2 g T z 1 g 2 f0) = {g g 2 1} Subdiferenciál Euklidovskej normy v bode 0 obsahuje v²etky vektory, ktoré majú d ºku men²iu alebo rovnú 1. Aplikácia subgradientov Pomocou subgradientov sa denujú podmienky optimality pre nediferencovate né funkcie. Subgradienty sú vyuºívané v algoritmoch pre optimalizáciu nediferencovate ných konvexných funkcií ako optimálne smery a ukon ovacie kritériá. 11

Minimum nedirencovate nej funkcie Veta 2.4. Nech f je konvexná a subdiferencovate ná v ˆx. Funkcia nadobúda v bode ˆx minimum práve vtedy, ke 0 fˆx). Dôkaz: Pri dokazovaní pouºijeme deníciu subgradientu 2.6.. Z faktu 0 fˆx) vyplýva, ºe v denícii subgradientu môºme poloºi subgradient g rovný nule. Preto platí vz ah fy) fˆx)+0 T y ˆx), y, ktorý je zárove deníciou minima ˆx funkcie fx). Ak bod ˆx je minimom funkcie fx) potom platí fy) fˆx), y. Po pripo ítaní nuly k pravej strane nerovnice získame:fy) fˆx) + 0 T y ˆx), y. Vidíme, ºe bod 0 sp a deníciu subgradientu v bode ˆx, preto patrí do mnoºiny subdiferenciálu 0 fˆx). Obr. 8: Minimum nedirencovate nej funkcie Vlastnosti subgradientov Veta 2.5. Subgradient funkcie fx) má nasledujúce vlastnosti: Ak α je kladný skalár, potom platí αf)x) = α fx). Ak fx) = f 1 x)+...+f n x), tak pre subgradient platí fx) = f 1 x)+...+ f n x). Pre funkciu tvaru hx) = fax + b) sa subgradient rovná hx) = A T fax + b). 12

Veta 2.6. Monotónnos ) Ak s fx) a ŝ fˆx) potom platí s ŝ) T x ˆx) 0. Dôkaz: Postupujeme z denície subgradientu 2.6.. Ke ºe s je subgradientom v bode x a ŝ je subgradientom v bode ˆx dostávame dve nerovnice: fx) fˆx) + ŝ T x ˆx) fˆx) fx) + s T ˆx x) S ítaním a následne preusporiadaním týchto dvoch nerovníc dostaneme poºadovaný tvar. 0 ŝ T x ˆx) + s T ˆx x) s ŝ) T x ˆx) 0 2.4 Subgradientné metódy konvexného programovania Subgradientné metódy sú vyuºívané na optimalizáciu nediferencovate ných, konvexných funkcií. V týchto metódach sa ako optimálny smer minimalizácie pouºíva subgradient. Algoritmus: Zvolíme za iato ný krok x 0 a opakujeme hlavnú iteráciu, ktorá má nasledovný tvar: x k = x k 1 t k g k 1, k = 1, 2,..., kde g k 1 je akýko vek subgradient ú elovej funkcie f v bode x k 1 z predo²lej iterácie. Premenná t k predstavuje d ºku kroku, býva asto kon²tantou alebo sa volí tak, aby vzdialenos dvoch za sebou idúcich bodov x k bola kon²tantná x k x k 1 2 = t k g k 1 2 = const.). Tretí spôsob vo by kroku t k je tzv. zmen²ujúci sa krok, v ktorom t k 0, k=1 t k =. Konvergencia metódy Predpoklady: f je konvexná funkcia s Df) = R n. f má kone nú optimálnu hodnotu ˆf a bod optima ˆx. 13

f je Lipschitzovsky spojitá s kon²tantou L > 0: fx) fy) L x y 2 x, y Poznamenajme, ºe konvergencia metódy vyºaduje práve zmen²ujúcu sadimishing) d ºku kroku t k, ostatné spôsoby vo by kroku konvergenciu nezaru ujú. Subgradientná metóda nie je spádovounerastúcou) metódou, platnos vz ahu f k) zaru ená. Z uvedeného dôvodu ozna íme f k) best f k 1) nie je hodnotu ú elovej funkcie, ktorá je najbliº²ia optimálnej hodnote ú elovej funkcie zo v²etkých hodnôt f i) aº po iteráciu k. Dá sa ukáza, ºe po et operácii potrebných pre dosiahnutie ɛ-suboptimálneho rie²enia f k) best ˆf ɛ je O1/ɛ 2 ). Subgradientné metódy majú v²ak nevýhody. Sú ve mi pomalé a zloºitos O1/ɛ 2 ) nie je dobrá, pre úlohy rôznych tvarov sa dajú nájs rýchlej²ie metódy s lep²ou zloºitos ou. Subgradientné metódy taktieº nemajú dobré ukon ovacie kritériá. 14

3 Proximal-gradient metóda Vzh adom na nevýhody subgradientných metód boli vymyslené iné metódy na rie²enie úloh rôzneho tvaru s nediferencovate nými konvexnými funkciami. peciálne úlohy typu min fx) = gx) + hx), v ktorých sa dá ú elová funkcia rozdeli na diferencovate nú a nediferencovate nú as, vedú k zavedeniu tzv. proximal operátora a metódy proximal gradient. Tejto metóde konvexného programovania a jej rôznym modikáciám sa budeme venova v nasledujúcich kapitolách. Kapitoly 3 a 4 boli spracované na základe [1] a [5]. Proximal gradient metóda sa pouºíva na optimalizáciu neohrani eného problému iºe bez väzieb), pri om ú elová funkcia fx) sa dá napísa ako sú et dvoch funkcií. kde: min x fx) = gx) + hx) 3) Funkcia gx) : R n R je diferencovate ná, konvexná. Funkcia hx) je uzavretá konvexná. Môºe by nediferencovate ná, najlep²ie taká, pri ktorej je proximal operátor nenáro ný, jednoduchý. 3.1 Proximal operátor Základným prvkom algoritmu proximal gradient metódy je tzv. proximal operátor, ktorému sa budeme v nasledujúcej podkapitole venova. Denícia 3.1. Proximal operátor konvexnej funkcie h je denovaný ako: prox h x) = argmin hu) + 1 ) u 2 u x 2 2 Veta 3.1. Proximal operátor prox h x) pre konvexú funkciu h existuje a je jednozna ne ur ený pre kaºdé x. Dôkaz: Ukáºeme, ºe funkcia hu) + 1 u 2 x 2 2 je silnokonvexná vzh adom na premennú u. Ak je funkcia silnokonvexná tak má práve jeden bod minima, z oho vyplýva existencia a jednozna nos. 4) 15

Ke ºe funkcia hu) je konvexná, budeme sa alej sústredi na vy²etrovanie konvexnosti prídavku 1 u 2 x 2 2 = 1u 2 x)t u x) = fu). Po dvojnásobnom derivovaní funkcie fu) pod a u zis ujeme, ºe jej Hessova matica je rovná jednotkovej matici. Z toho pod a Vety 2.3. vyplýva, ºe funkcia fu) je silnokonvexnou funkciou v premennej u. Ak h je konvexná a f je silnokonvexná, potom funkcia F u) = hu) + fu) je tieº silnokonvexnávlastnos silnokonvexných funkcií). Teda funkcia hu) + 1 u 2 x 2 2 je silnokonvexná, o sme chceli ukáza. Denícia pomocou subgradientu Veta 3.2. Proximal operátor prox h x) funkcie h moºno charakterizova ako: û = prox h x) x û hû) 5) Dôkaz: Veta 2.4. o minime nediferencovate nej funkcie nám hovorí o podmienkach optimality pre minimalizáciu nediferencovate nej funkcie. Ke ºe funkcia hu) môºe by nediferencovate ná pouºijeme pri odvádzaní vz ahu medzi subgradientom funkcie h v bode optima û a proximal operátorom funkcie h práve túto vetu. û = prox h x) = argmin hu) + 1 ) u 2 u x 2 2 Funkcie hu) a 1 2 u x 2 2 sú konvexné, ich sú et bude tieº konvexná funkcia. H adáme bod minima û funkcie F u) = hu) + 1 u 2 x 2 2. Z podmienok optimality nediferencovate ných funkcií dostávame:0 F û) 0 hû) + 1 ) 2 û x)t û x) 0 hû) + û x) x û hû). Medzi proximal operátorom a subgradientom funkcie h v optime û teda platí vz ah: û = prox h x) x û hû) 16

Vlastnosti proximal operátora Tvrdenie 3.1. Ak je h : R n1 R n2 R separovate ná funkcia hu 1, u 2 ) = h 1 u 1 ) + h 2 u 2 ), potom platí prox h x 1, x 2 ) = prox h1 x 1 ), prox h2 x 2 )). Dôkaz: prox h x 1, x 2 ) = argmin u 1,u 2 ) = argmin u 1,u 2 ) hu 1, u 2 ) + 1 ) 2 u x 2 2 = hu 1 ) + 1 2 u 1 x 1 2 2 + hu 2 ) + 1 ) 2 u 2 x 2 2 2 = Z dôvodu, ºe h adanie û 1 nezávisí od funkcií s premennou u 2 berú sa ako kon²tanta) a opa ne, moºme namiesto h adania celého vektora û h ada jeho 2 asti a potom ich spoji do jedného vektora. = argmin hu 1 ) + 1 u 1 2 u 1 x 1 2 2 = prox h1 x 1 ), prox h2 x 2 )). ), argmin hu 2 ) + 1 )) u 2 2 u 2 x 2 2 2 = Tvrdenie 3.2. kálovanie a posúvanie argumentu): Ak je funkcia hu) = ftu + a), t 0 získaná ²kálovaním a posúvaním argumentu funkcie f, potom sa proximálny operátor funkcie h dá prepísa ako: prox h x) = 1 t [prox t 2 ftx + a) a] Dôkaz: prox h x) = argmin = 1 t = 1 t u [ argmin u [ argmin u ftu + a) + 1 ) 2 u x 2 2 = u = tu + a = ) fu ) + 1 a 2 u t = 1 t [prox t 2 ftx + a) a] x 2 2 t 2 fu ) + 1 2 u a tx 2 2 ] a ) ] a 17

Tvrdenie 3.3. Nerozpínavos ): Ak u = prox h x), û = prox h ˆx) potom platí u û 2 x ˆx 2 Dôkaz: Vyuºijeme deníciu proximal operátora pomocou subgradientu vz ah 5)) a následne Vetu 2.6. o monotónnosti subgradientu. x u hu), ˆx û hû) x u ˆx + û) T u û) 0 0 x ˆx) u û)) T u û) = x ˆx) T u û) u û) T u û) u û 2 2 x ˆx) T u û) C S x ˆx 2 u û 2 u û 2 x ˆx 2 prox h je nerozpínavý alebo Lipschitzovky spojitá funkcia s kon²tantou L = 1. Príklady V nasledujúcich príkladoch si precvi íme po ítanie proximálneho operátora pre rôzne tvary funkcií hu). ƒasto budeme odvádza proximal operátor prox th x) funkcie thu) z dôvodu ²truktúry algoritmu proximal gradient metódy, kde skalár t predstavuje d ºku kroku. Príklad 3.1. hu) = 0 : prox h x) = argmin 1 u 2 x)t u x) ) = x u Príklad 3.2. Kvadratická funkcia: hu) = 1 2 ut Au + b T u + c prox th x) = argmin thu) + 1 ) u 2 u x 2 2 = = argmin t 1 u 2 ut Au + b T u + c) + 1 ) 2 u x)t u x) = argmin u = argmin u = t 1 2 ut Au + b T u) + 1 2 ut u 2x T u) + tc + 1 ) 2 xt x = ) 1 2 ut ta + I)u + u T tb x) Zderivovaním funkcie F = 1 2 ut ta + I)u + u T tb x) pod a u dostaneme: F u = ta + I)u + tb x) = 0 û = ta + I) 1 x tb), a preto prox th x) = ta + I) 1 x tb) 18

Príklad 3.3. Logaritmická bariéra: hu) = n i=1 log u i Ke ºe logaritmická bariéra je separovate nou funkciou sta í vyjadri proximal operátor pre jednu zloºku. prox th x) i = argmin thu i ) + 1 ) u i 2 u i x i 2 2 = argmin t log u i + 12 ) u i x i ) 2 u i Zderivovaním funkcie F = t log u i + 1 2 u i x i ) 2 pod a u i dostaneme: F u i Poloºíme deriváciu rovnú nule: ṱ u i + û i x i = 0 = t u i +u i x i. Prenásobením rovnice premennou û i dostaneme kvadratickú rovnicu, ktorá má 2 korene: û i = x i± x 2 i +4t 2. Av²ak premenná u i musí by v aka deni nému oboru logaritmu kladnou, a preto kore s mínusovým znamienkom nebudeme alej uvaºova. Dostávame prox th x) i = x i + x 2 i + 4t, i = 1,..., n. 2 Príklad 3.4. Jednotková norma: hu) = u 1 = n i=1 u i V aka separovate nosti jednotkovej normy sta í vyjadri proximal operátor pre jednu zloºku. prox th x) i = argmin thu i ) + 1 ) u i 2 u i x i 2 2 = argmin t u i + 12 ) u i x i ) 2 u i Pre u i 0, prox th x) i = argmin tu i + 12 ) 1 u i x i ) 2 = argmin u i u i 2 u2 i + u i t x i ) + 1 ) 2 x2 i Dostali sme kvadratickú funkciu jednej premenneju i ), ktorá nadobúda minimum v bode û i = b 2a = x i t. Z nezápornosti û i získame podmienku x i t. Pre u i 0 analogickým postupom dostaneme û i = x i + t, ke x i t. Na zvy²nej oblasti, kde x i t je û i = 0. Spojením predchádzajúcich zistení získavame proximal operátor funkcie thx) = t x 1, ktorý má tvar: x i t prox th x) i = x i + t x i t x i t 6) 0 x i t 19

Obr. 9: Proximálny operátor jednotkovej normy Príklad 3.5. Euklidovská norma: hu) = u 2 prox th x) = argmin thu) + 1 ) u 2 u x 2 2 = argmin t u 2 + 1 ) u 2 u x 2 2 Bod u, v ktorom funkcia F u) = t u 2 + 1 2 u x 2 2) nadobúda minimum, nájdeme podobne ako v predo²lých prípadoch zderivovaním funkcie pod a premennej u a poloºením derivácie rovnej nule. F u) u = t u 2 + 1 u 2 x 2 2 u u = t + u x = 0 u 2 Po derivácii funkcie dostávame výraz, z ktorého na prvý poh ad nevieme vyjadri premennú û predstavujúcu proximalny operátor. Preto si z výrazu najprv vyjadríme omu je rovná u 2, ktorú spätne dosadíme do pôvodného výrazu. Poznamenajme, ºe v bode u = 0 nie je funkcia diferencovate ná. Pre u nenulové platí: ) t u + 1 = x u 2 ) t u + 1 2 = x 2 u 2 ) t + 1 u 2 = x 2 u 2 u 2 = x 2 t ) t Pri upravovaní sme vyuºili fakt, ºe u 2 + 1 je kon²tanta, a preto sme ju mohli vytiahnu pred normu. Z dôvodu vlastnosti nezápornosti normy dostávame podmienku 20 ) =

x 2 t. Nahradíme normu u 2 a následne vyjadríme, omu sa rovná u: ) t u + 1 = x u 2 ) x 2 u = x x 2 t u = x 1 t ) x 2 Ak nie je podmienka x 2 t splnená bodom minima je práve bod nediferencovate nosti funkcie u = 0. Proximálny operátor Euklidovskej normy je teda rovný: ) x 1 t x prox th x) = 2 x 2 t 0 inak 0 u C Príklad 3.6. Indikátorová funkcia: hu) = I C u) = inak prox h x) = argmin I C u) + 1 ) u 2 u x 2 2 = Zaujíma nás bod minima û danej funkcie, ktorá obsahuje indikátorovú funk nú as. V aka tejto asti sme "penalizovaní"hodnotou + vtedy, ke sa pohybujeme mimo mnoºiny C. Preto h adanie bodu minima zúºime práve na mnoºinu C, v ktorej bodoch má indikátorová funkcia funk nú hodnotu rovnú 0. 1 = argmin u C 2 u x 2 2 = argmin u x 2 2 = P C x). u C Proximal operátor indikátorovej funkcie I C je Euklidovská projekcia na mnoºinu C. prox IC x) = P C x) 21

3.2 Algoritmus proximal-gradient metódy Algoritmus proximal-gradient metódy na rie²enie úlohy 3) pozostáva z opakovania hlavnej iterácie aº po dosiahnutie poºadovanej presnosti. Proximal-gradient iterácia vyzerá nasledovne: x k) = prox tk hx k 1) t k gx k 1) )) Tento vz ah sa dá prepísa ako x k) = x k 1) t k G tk x k 1) ), pri om G t x) = 1x prox t thx t gx))) je smer, ktorý môºeme chápa ako subgradient funkcie f, o om hovorí aj Veta 3.3. a Poznámka 3.1.. Premenná t k > 0 je d ºka kroku, ktorú volíme bu kon²tantnú alebo ju budeme ur ova v kaºdej iterácii pomocou line search. Príklad 3.7. hu) = 0 Minimaliza ná úloha sa zjednodu²í na tvar min x x k) = x k 1) t k gx k 1) ) gx) a iterácia je nasledovného tvaru: Dostaneme teda klasickú gradientnú metódu. Príklad 3.8. hu) = I C u) Minimaliza ná úloha sa dá chápa ako min gx). Iterácia sa zmení na tvar gradientnej x C projek nej metódy, pretoºe proximal operátor sa správa ako projekcia. x k) = P C x k 1) t k gx k 1) ) ) Veta 3.3. : Pre smer G t x) denovaný ako G t x) = 1 t x prox thx t gx))) platí: G t x) gx) + hx tg t x)). 7) Dôkaz: Vz ah denujúci smer G t x) prepí²eme na nasledovný tvar: x tg t x) = prox th x t gx)) 22

V al²om kroku si ozna íme u = x tg t x), x = x t gx), rovnica sa nám teda zjednodu²í na tvar u = prox th x ). Potom z Vety 3.2.denícia pomocou subgradientu) vyplýva, ºe x u t hu ). Vrátením sa na pôvodné zna enie získame vz ah, ktorý jednoduchými úpravami dostaneme do poºadovaného tvaru. t gx) + G t x)) t hx tg t x)) G t x) gx) + hx tg t x)) Poznámka 3.1. Veta nám vlastne hovorí o tom, ºe smer G t x) patrí do subdiferenciálu funkcie h v bode x k novej iterácie posunutom o gradient funkcie g v bode predchádzajúcej iterácie x k 1. Preto sa G t x) dá chápa sko "subgradient"ú elovej funkcie f. Dôsledok 3.1. : Bod x je minimom funkcie fx) = gx) + hx) práve vtedy, ke G t x) = 0. Táto skuto nos vyplýva priamo z podmienok optimality diferencovate ných a nediferencovate ných funkcií. Interpretácia iterácie Vyuºijeme deníciu proximal operátora. x + = prox th x t gx)) = argmin thu) + 1 ) u 2 u x + t gx) 2 2 = argmin hu) + 1 u 2t u x 2 2 + gx) T u x) + t ) 2 gx) 2 2 = argmin hu) + gx) + gx) T u x) + 1 ) u 2t u x 2 2 Výsledok nám hovorí o tom, ºe v kaºdej iterácii nový bod x k) minimalizuje funkciu hu) plus jednoduchý lokálny kvadratický model funkcie gu) okolo bodu x k 1) z predchádzajúcej iterácie. Line search Cie om line search algoritmu je ur i optimálnu d ºku kroku t k v asti metódy: Algoritmus: x k) = prox tk h x k 1) t k gx k 1) ) ) = x k 1) t k G tk x k 1) ) Za íname s krokom t = t k 1 z predo²lej iterácie a opakujeme t = βt 0 < β < 1) aº 23

pokým ná² krok splní line search nerovnos : gx k) ) = gx k 1) tg t x k 1) )) gx k 1) ) t gx k 1) ) T G t x k 1) ) + t 2 G tx k 1) ) 2 2 Ako po iato ný krok t 0 volíme ubovo nú kladnú hodnotu. Algoritmus vyºaduje výpo et jedného proximal operátora za line search iteráciu. Line search nerovnos je in²pirovaná analýzou konvergencie, o ukáºeme v al²ej podkapitole. 3.3 Konvergencia proximal-gradient metódy Predpoklady: Gradient funkcie g je Lipschitzovsky spojitá funkcia s kon²tantou L > 0 gx) gy) 2 L x y 2, x, y R n. Optimálna funk ná hodnota ˆf je kone ná a funkcia ju nadobúda v bode ˆx, ktorý nemusí by jednozna ný. Konvergenciu metódy budeme vy²etrova pre xný krok t ako aj pre krok t k, ktorý ur ujeme pri kaºdej iterácii pomocou line search. Dôsledky Lipschitzovského predpokladu Ako prvé odvodíme horné ohrani enie pre funkciu g z Lipschitzovej vlastnosti, ktoré budeme v al²om postupe potrebova. Veta 3.4. Konvexná funkcia g s Lipschitzovsky spojitým gradientom s kon²tantou L má horné ohrani enie gy) gx) + gx) T y x) + L 2 y x 2 2 x, y 8) Dôkaz: Ozna me v = y x. Vieme, ºe pre gy) platí nasledujúca rovnos, z ktorej postupnými úpravami získame horné ohrani enie. gy) = gx) + gx) T v + 1) gx) + gx) T v + 2) gx) + gx) T v + 1 0 1 0 1 = gx) + gx) T v + L 2 v 2 2 0 gx + tv) gx)) T vdt gx + tv) gx) 2 v 2 dt Lt v 2 2dt = 24

Úprava 1) vyplýva z Cauchy-Schwarzovej nerovnosti x T y x 2 y 2. V druhej úprave 2) sa vyuºíva Lipschitzovská spojitos gradientu g, ktorá bola zahrnutá v predpokladoch konvergencie. Obr. 10: Horné a dolné ohranicenie konvexnej funkcie gx) Dôsledok 3.2. Line search nerovnos ) Poloºením y = x tg t x) do horného orhrani enia 8) dostaneme: gx tg t x)) gx) t gx) T G t x) + t2 L 2 G tx) 2 2 Na základe toho je line search nerovnos v tvare: gx tg t x)) gx) t gx) T G t x) + t 2 G tx) 2 2 9) Nerovnos je splnená pre d ºku kroku 0 t 1/L. Pre krajné hodnoty t sa uvedené vz ahy rovnajú. Mimo intervalu je prvý vz ah slab²ou podmienkou, a preto nie je platnos druhého vz ahu zaru ená. Veta 3.5. globálna nerovnos ): Nech funkcia f je tvaru fx) = gx)+hx), kde funkcia gx) je konvexná diferencovate ná a hx) je konvexná nediferencovate ná funkcia. Ak platí line search nerovnos 9) pre funkciu g, potom pre kaºdé z platí vz ah: fx tg t x)) fz) + G t x) T x z) t 2 G tx) 2 2 10) 25

Dôkaz: fx tg t x)) =gx tg t x)) + hx tg t x)) gx) t gx) T G t x) + t 2 G tx) 2 2 + hx tg t x)) gz) + gx) T x z) t gx) T G t x) + t 2 G tx) 2 2 + hz) + G t x) gx)) T x z tg t x)) =fz) + G t x) T x z) t 2 G tx) 2 2 V druhom riadku je vyuºitá line search nerovnos 9) pre funkciu g. V nasledujúcom riadku sa pouºila konvexnos oboch funkcií: pre funkciu g bola pouºitá Veta 2.1.podmienky 1.rádu), pre funkciu h bola vyuºitá Denícia 2.6.subgradient) a fakt, ºe G t x) gx)) hx tg t x)), o sme si ukázali po denovaní smeru G t x) vo Vete 3.3.. Veta 3.6. Proximal gradient je spádová metóda, platí fx + ) fx) t 2 G tx) 2 2. Dôkaz: Ozna me bod nasledujúcej iterácie x + = x tg t x). Ak v globálnej nerovnosti 10) poloºíme z=x dostaneme poºadovaný tvar. Poznámka 3.2. Tento vz ah nám hovorí o tom, ºe proximal gradient je nerastúcaklesajúca) metóda. Po kaºdej novej iterácii sa funk ná hodnota ú elovej funkcie zmen²í alebo ostane rovnakáak sme v optime). Funk ná hodnota sa za kaºdú iteráciu zlep²uje prinajmen²om o hodnotu t G 2 tx) 2 2, tento jav je dostato ný na to, aby garantoval konvergenciu metódy. Ak do globálnej nerovnosti 10) dosadíme z = ˆx, dostaneme: 0 fx + ) ˆf G t x) T x ˆx) t 2 G tx) 2 2 = 1 t x x+ ) T x ˆx) 1 2t x x+ 2 2 1 2t x ˆx 2 2 + 1 2t x ˆx 2 2 = 1 2t x ˆx 2 2 x + ˆx 2 2) V druhom riadku sme vyuºili rovnos G t x) = x x+ t 11) a pripo ítali sme nulu. Pokra ovali sme s úpravou na ²tvorec pod a vzorca A B) 2 = A 2 2AB+B 2,kde A = x ˆx) a B = 26

x x + ). Z predchádzajúcej nerovnice taktieº pozorujeme, ºe vzdialenos priebeºného rie²enia od optimálneho sa zniºuje kaºdou iteráciou, pretoºe platí: Analýza konvergencie PGM Kon²tantný krok t = 1/L x + ˆx 2 2 x ˆx 2 2 12) Veta 3.7. Proximal gradient metóda s kon²tantným krokok t = 1/L dosahuje ɛ presné rie²enie po O1/ɛ) krokoch - platí fx k) ) ˆf 1 2kt x0) ˆx 2 2. Dôkaz: V nerovnosti 11) poloºme x = x i 1), x + = x i) : fx i) ) ˆf 1 2t x i 1) ˆx 2 2 x i) ˆx 2 2) 13) Zosumujeme v²etky nerovnosti 13) od prvej iterácie aº po poslednú k-tú iteráciu. k fx i) ) ˆf) 1 2t i=1 k x i 1) ˆx 2 2 x i) ˆx 2) 2 i=1 = 1 2t x0) ˆx 2 2 x 1) ˆx 2 2 + x 1) ˆx 2 2...... x k 1) ˆx 2 2 + x k 1) ˆx 2 2 x k) ˆx 2 2) = 1 x 0) ˆx 2 2 x k) ˆx 2 2t 2) 1 2t x0) ˆx 2 2 Nerovnos predelíme po tom iterácii k a z poznatku, ºe fx i) ) je nerastúca dostávame: fx k) ) ˆf = 1 k k fx k) ) ˆf) 1 k i=1 k i=1 fx i) ) ˆf) 1 2kt x0) ˆx 2 2 Krok ur ovaný pomocou line search v kaºdej iterácii t = t i t min Veta 3.8. Proximal gradient metóda s line search krokom t k nájde ɛ presné rie²enie po O1/ɛ) iteraciách - platí fx k) ) ˆf 1 2kt min x 0) ˆx 2 2. Dôkaz: Budeme postupova analogicky ako v predo²lom prípade, jediným rozdielom bude závislos kroku t od iterácie i. Zosumovaním v²etkých nerovností 13) od prvej 27

iterácie aº po k-tú iteráciu dostávame: k fx i) ) ˆf) i=1 k i=1 1 2t min 1 ) x i 1) ˆx 2 2 x i) ˆx 2 2 2t i k x i 1) ˆx 2 2 x i) ˆx 2) 2 i=1 = 1 ) x 0) ˆx 2 2 x k) ˆx 2 2 2t min 1 x 0) ˆx 2 2 2t min Nerovnos predelíme po tom iterácii k a z poznatku, ºe fx i) ) je nerastúca dostaneme: fx k) ) ˆf 1 2kt min x 0) ˆx 2 2 Ukázali sme, ºe pri oboch spôsoboch vo by kroku sa rozdiel fx k) ) ˆf zniºuje najmenej rýchlos ou 1/k. Na nájdenie ɛ-suboptimálneho bodu sp ajúceho fx k) ) ˆf ɛ pomocou klasickej proximal gradient metódy teda potrebujeme O1/ɛ) iterácii. Táto zloºitos sa v²ak dá vylep²i vhodnou úpravou metódy na hodnotu O1/ ɛ). Upravený algoritmus s lep²ou zloºitos ou sa nazýva zrýchlená proximal gradient metóda. 28

4 Zrýchlená proximal gradient metóda Zrýchlená metóda má pribliºne rovnakú náro nos za iteráciu ako základná proximal gradient metóda. Od klasického algoritmu sa lí²i v tom, ºe do proximálneho operátora v kaºdej iterácii vstupujú namiesto hodnôt x k 1) hodnoty y k 1), ktoré sú získané extrapoláciou z predo²lých hodnôt x k 1) a x k). Preto je zrýchlená metóda nazývaná tieº ako proximal gradient metóda s extrapoláciou. Algoritmus: Zvolíme ²tartovací bod x 0) Dh) a poloºíme y 0) = x 0), potom pre k 1: x k) = prox tk h y k 1) t k gy k 1) ) ) y k) = x k) + k 1 k + 2 xk) x k 1) ) Krok t k býva kon²tantý alebo ur ovaný pomocou line search. V²imnime si, ºe prvá iterácia zrýchlenej metódy je zhodná s prvou iteráciou pôvodnej metódy. Line search Cie om line search algoritmu je ur i optimálnu d ºku kroku t k v asti metódy: x k) = prox tk h y k 1) t k gy k 1) ) ) = y k 1) t k G tk y k 1) ) Algoritmus line search: Za íname s krokom t = t k 1 z predo²lej iterácie a opakujeme t = βt 0 < β < 1) aº pokým ná² krok splní nerovnos : gx k) ) = gy k 1) tg t y k 1) )) gy k 1) ) t gy k 1) ) T G t y k 1) ) + t 2 G ty k 1) ) 2 2 Ako po iato ný krok t 0 volíme ubovo nú kladnú hodnotu. Poznamenajme, ºe takto denovaný line search algoritmus implikuje nerastúcos kroku t k t k 1. 29

4.1 Konvergencia zrýchlenej proximal gradient metódy Predpoklady: Gradient funkcie g je Lipschitzovsky spojitá funkcia s kon²tantou L > 0 gx) gy) 2 L x y 2, x, y. Optimálna funk ná hodnota ˆf je kone ná a funkcia ju nadobúda v bode ˆx, ktorý nemusí by jednozna ný. Rovnako ako v predo²lej kapitole budeme analyzova konvergenciu zrýchlenej metódy pre oba spôsoby vo by kroku t - pre xný krok aj pre krok pomocou line search. Postup je analogický k predchádzajúcemu vy²etrovaniu konvergencie pre klasickú metódu, a preto vyuºijeme niektoré vz ahy, ktoré boli odvodené a zdôvodnené tam. Line search nerovnos je tvaru: gy tg t y)) gy) t gy) T G t y) + t 2 G ty) 2 2, v ktorej je jediným rozdielom to, ºe namiesto pôvodných hodnôt x pouºívame extrapolované hodnoty y. Nerovnos je splnená pre d ºku kroku 0 t 1/L. Takisto platí aj globálna nerovnos pre v²etky z, ke t sp a line search nerovnos. Notácia: fy tg t y)) fz) + G t y) T y z) t 2 G ty) 2 2 14) Ozna me θ k = 2 k+1, denujeme v0) = x 0) a pre k 1: v k) = x k 1) + 1 θ k x k) x k 1) ) Pri novom ozna ovaní sa dá extrapolované y k) prepísa nasledovne: y k) =x k) + k 1 k + 2 xk) x k 1) ) =x k) + k + 1 k + 2 xk) x k 1) ) 2 k + 2 xk) x k 1) ) =x k) + θ k+1 θ k x k) x k 1) ) θ k+1 x k) x k 1) ) =1 θ k+1 )x k) + θ k+1 x k 1) + 1 θ k x k) x k 1) )) 15) =1 θ k+1 )x k) + θ k+1 v k) 30

Pomocou nového y k) prepí²eme aj v k) : v k) =x k 1) + 1 θ k x k) x k 1) ) =x k 1) + 1 θ k y k 1) t k G tk y k 1) ) x k 1) ) =x k 1) + 1 θ k 1 θ k )x k 1) + θ k v k 1) t k G tk y k 1) ) x k 1) ) 16) =v k 1) t k θ k G tk y k 1) ) Druhý riadok vychádza z rovnosti x k) = y k 1) t k G tk y k 1) ). V tre om riadku sme y k 1) rozpísali pomocou predchádzajúceho vz ahu 15). V al²om postupe vyuºijeme aj fakt, ºe θ k sp a nerovnos : 1 θ k θ 2 k = k2 1 4 k2 4 = 1 θ 2 k 1 17) Progres v jednej iterácii Veta 4.1. Zrýchlená proximal gradient metóda dosahuje za jednu iteráciu progres 1 fx i) ) ˆf) + 1 v i) ˆx 2 2 1 θ i fx i 1) ) 2t ˆf) + 1 v i 1) ˆx 2 2 18) i 2t i θ 2 i θ 2 i Dôkaz: Pouºijeme globálnu nerovnos 14), ktorá platí pre v²etky z. V na²om prípade poloºíme z rovné konvexnej kombinácii z = 1 θ i )x i 1) + θ iˆx fx i) ) f1 θ i )x i 1) + θ iˆx) + G t y i 1) ) T y i 1) 1 θ i )x i 1) θ iˆx) t 2 G ty i 1) ) 2 2 1 θ i )fx i 1) ) + θ i ˆf + Gt y i 1) ) T θ i v i 1) θ iˆx) t 2 G ty i 1) ) 2 2 ) =1 θ i )fx i 1) θ ) + θ i ˆf 2 + i 2t G t y i 1) ) T v i 1) ˆx) t2 G 2t θ i θi 2 t y i 1) ) 2 2 =1 θ i )fx i 1) θ ) + θ i ˆf 2 + i v i 1) ˆx 2 2 v i 1) t ) G t y i 1) ) ˆx 2 2 2t θ i =1 θ i )fx i 1) ) + θ i ˆf + θ 2 i 2t v i 1) ˆx 2 2 v i) ˆx 2 2) Pri úpravách na druhý riadok bola vyuºitá lambda denícia konvexnosti funkcie f Denícia 2.2.), takisto sa pouºil upravený vz ah15) pre y i 1). V ²tvrtom riadku sme predchádzajúci výraz upravili na ²tvorce pomocou vzorca A B) 2 = A 2 2AB + B 2, kde A = v i 1) ˆx), B = t θ i G t y i 1) ). Posledný riadok pouºíva rovnos 16) pre premennú v i). 31

Odpo ítaním od oboch strán ˆf, predelením nerovnice θ 2 i a preusporiadaním, aby na avej strane boli indexy novej iterácie i a na pravej indexy predchádzajúcej iterácie i 1, dostaneme "progres"za jednu iteráciu, ktorý pouºijeme na odvodenie konvergencie zrýchlenej metódy. 1 fx i) ) ˆf) + 1 v i) ˆx 2 2 1 θ i fx i 1) ) 2t ˆf) + 1 v i 1) ˆx 2 2 i 2t i θ 2 i θ 2 i Analýza konvergencie zrýchlenej PGM Kon²tantný krok t i = t = 1/L Veta 4.2. Zrýchlená proximal gradient metóda s kon²tantným krokom potrebuje na dosiahnutie ɛ-presného rie²enia fx k) ) ˆf ɛ po et O1/ ɛ)) iterácií, platí fx k) ) ˆf 2 k+1) 2 t x0) ˆx 2 2 Dôkaz: Budeme opakovane vyuºíva vlastnos θ k 17) a nerovnicu progresu za jednu iteráciu 18). 1 fx k) ) θ ˆf) 1 fx k) ) k 2 θ ˆf) + 1 k 2 2t vk) ˆx 2 2 1 θ k fx k 1) ) θ ˆf) + 1 k 2 2t vk 1) ˆx 2 2 1 fx k 1) ) θ ˆf) + 1 k 1 2 2t vk 1) ˆx 2 2...... 1 θ 1 fx 0) ) θ ˆf) + 1 1 2 2t v0) ˆx 2 2 = = 1 2t x0) ˆx 2 2 Preto platí: fx k) ) ˆf θ2 k 2t x0) ˆx 2 2 = 2 k + 1) 2 t x0) ˆx 2 2 32

Krok ur ovaný pomocou line search v kaºdej iterácii t i 1 t i t min Veta 4.3. Zrýchlená proximal gradient metóda s line search krokom nájde ɛ-suboptimálny bod fx k) ) ˆf ɛ za po et O1/ ɛ) iterácií, platí fx k) ) ˆf 2 k+1) 2 t min x 0) ˆx 2 2 Dôkaz: Budeme postupova analogickým spôsobom ako v predo²lom prípade, jediným rozdielom bude závislos kroku t od iterácie i. Preto platí: t min fx k) ) θ ˆf) t k fx k) ) k 2 θ ˆf) + 1 k 2 2 vk) ˆx 2 2 t k1 θ k ) fx k 1) ) θ ˆf) + 1 k 2 2 vk 1) ˆx 2 2 t k 1 fx k 1) ) θ ˆf) + 1 k 1 2 2 vk 1) ˆx 2 2...... t 11 θ 1 ) fx 0) ) θ ˆf) + 1 1 2 2 v0) ˆx 2 2 = = 1 2 x0) ˆx 2 2 fx k) ) ˆf θ2 k 2t min x 0) ˆx 2 2 = 2 k + 1) 2 t min x 0) ˆx 2 2 Ukázali sme si, ºe rozdiel fx k) ) ˆf sa zniºuje prinajmen²om rýchlos ou 1/k 2. Pri oboch spôsoboch vo by kroku dosahuje algoritmus proximal gradient metódy s extrapoláciou zloºitos O1/ ɛ). Zrýchlená metóda v²ak nezaru uje nerastúcos ú elovej funkcie fx k) ) fx k 1) ) tak ako pôvodná verzia. Táto podmienka v²eobecne nie je platná, metóda sa dostáva k optimálnej hodnote asto skokovito. Z uvedeného dôvodu existuje al²ia modikácia proximal gradient metódy, ktorá nerastúcos sp a. Nazýva sa spádovádescent) verzia zrýchlenej proximal gradient metódy. 33

4.2 Descent verzia zrýchlenej proximal gradient metódy Nasledujúca modikácia algoritmu zaru uje nerastúcos ú elovej funkcie. z k) = prox tk h y k 1) t k gy k 1) ) ) z k) fz k) ) fx k 1) ) x k) = x k 1) inak v k) = x k 1) + 1 θ k z k) x k 1) ) y k) = 1 θ k+1 )x k) + θ k+1 v k) Premenná θ k ostáva denovaná ako v predo²lej kapitole ako θ k = 2. V²imnime si, k+1 ºe ak nie je splená podmienka, premenná x k ostáva kon²tantná aº pokým sa nenájde lep²ie suboptimálne rie²enie. 4.3 Nová modikácia proximal gradient metódy Nasledujúcu úpravu sme vytvorili na základe poznatkov z predo²lých kapitol, vyuºili sme predov²etkým Vetu 3.6.proximal gradient je spádová metóda) a vz ah 12). Modikácia je podobná descent verzii, taktieº má vlastnos nerastúcosti ú elovej funkcie. Najvä ²í rozdiel je ten, ºe premenná x neostáva kon²tantnou, ale v kaºdej iterácii sa mení, pribliºuje sa optimálnemu rie²eniu. z k) = prox tk h y k 1) t k gy k 1) ) ) z k) fz k) ) fx k 1) ) x k) = prox tk h x k 1) t k gx k 1) ) ) inak y k) = x k) + k 1 k + 2 xk) x k 1) ) Pokia je podmienka nerastúcosti splnená, pouºíva sa klasická zrýchlená metóda, kvôli jej rýchlosti konvergencie. Ak daná podmienka neplatí, vyuºívame pôvodnú proximal gradient metódu na predchádzajúce x k 1), ktorá je vºdy spádová. Táto úprava je zaloºená na tom, ºe v klasickom proximal gradient algoritme je ú elová funkcia nerastúca a vzdialenos priebeºného od optimálneho rie²enia sa zmen²uje kaºdou iteráciou, o sme si ukázali vo Vete 3.6. a vz ahu 12). V aka tomu na²e priebeºné rie²enie x k) nebude nikdy stagnova, od oho o akávame rýchlej²ie dosiahnutie suboptimálneho rie²enia. 34

5 Numerické experimenty V tejto kapitole otestujeme proximal gradient metódu a jej modikácie na príkladoch. Experimenty sú vykonané v programe Matlab, zdrojové kódy sa nachádzajú v poslednej asti práce. V²etky pokusy prebiehali na zostave PC so ²tvorjadrovým procesorom Intel Core i7 2.66 GHz a 6GB RAM. Úlohy, na ktorých prebiehajú numerické experimenty nám generuje generátor úloh, ktorý popí²eme v al²ej asti. V²etky testy a pozorovania spracujeme na úlohe, ktorú si zvolíme nasledovného tvaru: Min{ 1 2 Ax b 2 2 + x 1, x R n }, kde sa ú elová funkcia dá rozloºi na diferencovate nú funkciu gx) = 1 Ax 2 b 2 2 a nediferencovate nú as hx), ktorou je v na²om experimente jednotková norma x 1. Vzh adom na ²truktúru algoritmu proximal gradient metódy vyuºijeme proximálny operátor funkcie thu) = t u 1, ktorý sme odvodili v 3. kapitole. x i t x i t prox th x) i = x i + t x i t 0 x i t Ur ovanie kroku t k : Metódy otestujeme na oboch spôsoboch vo by kroku t k. V prípade kroku line search pouºijeme algoritmus z kapitoly 3.2. resp. v prípade zrýchlenej metódy z kapitoly 4. Kon²tantný krok volíme ve kosti t k = t = 1/L, kde L je Lipschitzovská kon²tanta gradientu funkcie gx), o je taktieº in²pirované line search nerovnos ou. Ukáºeme si, ºe v prípade na²ej funkcie gx) = 1 2 Ax b 2 2 je táto kon²tanta rovná najvä ²iemu vlastnému íslu matice A T A, a preto volíme v algoritme metódy s xným krokom krok d ºky t = 1/λ max A T A). H adáme teda kon²tantu L z Lipschitzovskej vlastnosti gradientu gx). gx) gy) 2 L x y 2, x, y R n 35

Po zderivovaní funkcie gx) pod a x zistíme, ºe gradient je tvaru: gx) = A T Ax b) Gradient následne dosadíme do vz ahu Lipschitzovskej vlastnosti a jednoduchými úpravami nájdeme L. A T Ax A T b A T Ay A T b) 2 = A T Ax y) 2 λ max A T A) x y 2 Preto L = λ max A T A). Generátor úloh: Nami vytvorený generátor úloh tvorí úlohy tak, ºe poznáme ich optimálne rie²enie. Funguje nasledovne: 1.) Zvolíme rozmery m, n matice A, l - po et nenulových prvkov bodu optima, v - vzdialenos po iato ného bodu x 0) od optima. 2.) Náhodné generovanie matice A, bodu optima ˆx R n. 3.) Dopo ítanie vektora b R m tak, aby optimálnym rie²ením úlohy bolo ˆx. 4.) Dopo ítanie ²tartovacieho bodu x 0) pod a vzdialenosti od optimálneho rie²enia. Funkcie generátora "po et nenulových prvkov" a "vzdialenos od bodu optima" sa dajú vypnú hodnotou vstupu 1, vtedy sa údaje tvoria úplne náhodne. Ke ºe generujeme úlohy, u ktorých poznáme rie²enie, pouºijeme ako stopovacie kritérium pri dosiahnutí ɛ presnosti x k) ˆx 2 < ɛ. Vo výsledkoch budeme uvádza priemerný po et iterácii a priemernú asovú náro nos v sekundách. 36

5.1 Vplyv po tu nenulových prvkov v optimálnom rie²ení na rýchlos dosiahnutia rie²enia Tabu ky sú spracované zo vzorky 500 úloh rozmerov 500x200 na kaºdý riadok. V²imnime si, ºe line search metódy dosahujú suboptimálne rie²enie za menej iterácii ako metódy s kon²tantým krokom, ale sú asovo náro nej²ie, preto je výhodnej²ie pouºíva xný krok. Výsledok experimentu: Metódy potrebujú viac iterácii a asu na nájdenie rie²enia, ak je viac nenulových prvkov v optimálnom rie²ení. Obr. 11: Metódy s kon²tantným krokom Obr. 12: Metódy s line search krokom 37

5.2 Vplyv zmeny poºadovanej presnosti na rýchlos dosiahnutia rie²enia Tabu ky sú spracované zo vzorky 1000 úloh rozmerov 400x100 na kaºdý riadok. Výsledok experimentu: Zvy²ovanie presnosti spôsobuje zvy²ovanie po tu iterácii a asovej náro nosti. Obr. 13: Metódy s kon²tantným krokom Obr. 14: Metódy s line search krokom 38

5.3 Vplyv rozmerov úlohy na rýchlos dosiahnutia rie²enia Tabu ky sú spracované zo vzorky 500 úloh na kaºdý riadok. V²imnime si, ºe pre ve ké rozmery úloh metódy s line search krokom nedokázali nájs optimum v limite 500 iterácii, o je pravdepodobne spôsobené zaokrúhlovacími chybami a tým, ºe line search krok sa uº ve mi zmen²il a metódy sa tak nedokáºu pohnú k optimálnej hodnote. Výsledok experimentu: Zvy²ovanie rozmerov úloh spôsobuje zvy²ovanie po tu iterácii a asovej náro nosti. Obr. 15: Metódy s kon²tantným krokom Obr. 16: Metódy s line search krokom 39

5.4 Vplyv vzdialenosti ²tartovacieho bodu od optima na rýchlos dosiahnutia rie²enia Tabu ky sú spracované zo vzorky 500 úloh rozmerov 500x200 na kaºdý riadok. Výsledok experimentu: Zvy²ovanie vzdialenosti ²tartovacieho bodu od optima spôsobuje zvy²ovanie po tu iterácii a asovej náro nosti. Obr. 17: Metódy s kon²tantným krokom Obr. 18: Metódy s line search krokom 40

5.5 Porovnanie metód Na nasledujúcich obrázkoch si ukáºeme vývoj vzdialenosti priebeºného rie²enia x k) od bodu optima ˆx, iºe vz ah x k) ˆx 2 v závislosti od iterácie k. Pomocou tohto vývoja porovnáme rôzne modikácie proximal gradient metódy, prípadne poukáºeme na ²peciálne správanie metód. Obr. 19: Porovnanie metód s kon²tantným krokom 41

Obr. 20: Porovnanie metódy s kon²tantným krokom a line search krokom Obr. 21: Ukáºka "skokov"zrýchlenej metódy 42

6 Záver V bakalárskej práci sme sa venovali proximal gradient metóde konvexného programovania, ktorá sa pouºíva na minimalizáciu neohrani eného problému s nediferencovate nou ú elovou funkciou ²peciálnej ²truktúry. V jednotlivých astiach sme sa oboznámili s rôznymi poznatkami z oblasti konvexných funkcií a konvexného programovania, zadenovali sme subgradienty a objasnili sme podmienky optimality nediferencovate ných funkcií. Teoreticky sme spracovali proximal gradient metódu, proximálny operátor aj s jeho vlastnos ami. Predstavili sme si rôzne verzie proximal gradient metódy - základná verzia, zrýchlená verzia a spádová verzia. Práca obsahuje analýzu konvergencie prvých dvoch pre oba spôsoby vo by kroku. Navrhli sme novú modikáciu s ú elom al²ieho vylep²enia metódy, ktorú sme podrobili testom. V asti numerické experimenty sme testovali metódy na úlohách, ktoré generoval nami navrhnutý generátor úloh, v aka ktorému sme optimálne rie²enia úloh poznali. Testovali sme vplyv nenulových prvkov v optime na po et iterácii a asovú náro nos, výsledok hovorí o tom, ºe ím je viac nenulových prvkov tým metóda pomal²ie nachádza optimum. Otestovali sme taktieº ú innos metód na vysokorozmerné ulóhy rozmerov aº do 3000x1200 a zistili sme, ºe sú efektívne. Metódy poskytovali v experimentoch ve mi dobré výsledky. 43

7 Literatúra Literatúra [1] L. Vandenberghe: Algorithms for large-scale convex optimization - lecture notes, course at Technical University of Denmark, August 2327, 2010 http://www.ee.ucla.edu/~vandenbe/shortcourses.html [2] M. Hamala: Konspekty k predná²kam z nelineárneho programovania [3] S. Boyd and L. Vandenberghe, Subgradients, Notes for EE364b, Stanford University, 2007 [4] S. Boyd and L. Vandenberghe, Convex optimization, Cambridge university press, 2004 www.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf [5] D. P. Bertsekas, Lecture slides on convex analysis and optimization based on 6.253 class lectures at the Mass. Institute of technology Cambridge, spring 2010 web.mit.edu/dimitrib/www/convex_slides_2010.pdf [6] L. Vandenberghe: First-order methods - lecture notes, OPTEC/K.U.Leuven, July 67, 2009 http://www.ee.ucla.edu/~vandenbe/shortcourses.html 44