në shtëpi » 2 Shpërndarja » Optimalitetet janë kushte të mjaftueshme. Optimaliteti kushtet e nevojshme

Optimalitetet janë kushte të mjaftueshme. Optimaliteti kushtet e nevojshme

Ne marrim kushtet e optimalitetit që duhet të plotësojë sekuenca e dëshiruar e kontrollit. Për këtë qëllim, problemin e formuluar më sipër e interpretojmë si problem të programimit matematik.

Le të paraqesim kriterin (4.2) si një funksion të kontrollit të kërkuar

Këtu poshtë dhe dhe £ kuptohen se janë sekuenca , të shkruara për definicion si vektorë të zgjeruar me dimensione (N+l)m dhe (N+l)r përkatësisht. Varësia e funksionit të gjendjes fundore J nga dhe dhe të nënkuptuar dhe manifestohet përmes ekuacionit (4.1). Formalisht, problemi i optimizimit konsiston në gjetjen e një vektori të tillë midis atyre të pranueshëm dhe, e cila minimizon kriterin . Dhe ky është një problem i zakonshëm i programimit matematik. Kushti i domosdoshëm për optimizëm në një problem të tillë reduktohet në përmbushjen e kushtit të mosnegativitetit të derivatit në pikën e dëshiruar. dhe në çdo drejtim të pranueshëm, d.m.th.

Këtu dhe më poshtë, shënimi përdoret për të treguar gradientin e një funksioni skalar J(s) me argument vektorial dhe, llogaritur në pikë dhe = a. Nën Gradient , siç dihet, kuptohet një vektor (kolona), i përbërë nga derivatet e parë të pjesshëm të funksionit / në lidhje me të gjitha argumentet e vektorit. dhe. Në këtë rast, ajo mund të përfaqësohet si më poshtë:

ku nga ana tjetër tregon gradientin e funksionit J nga një vektor i veçantë .

Le të shpjegojmë tani termin drejtim i vlefshëm. Me drejtim të pranueshëm nënkuptohet një vektor i tillë, i cili, duke u shtuar në vektor dhe, nuk do të çojë në shkelje të kufizimeve fillestare të kontrollit për ndonjë vlerë arbitrare të vogël të modulit të vetë vektorit. Me fjalë të tjera, konsiderohet e pranueshme nëse plotësohet kushti, ku nën U grupi i të gjitha grupeve të pranueshme është tkurrur , a është një numër mjaft i vogël jo negativ. Vëmë re gjithashtu se kur shkruajmë disa derivate të pjesshëm, natyrshëm do të supozojmë, pa përcaktuar në mënyrë specifike, se ato ekzistojnë.

Është e vështirë të punohet me kushtin e optimalitetit të paraqitur këtu, pasi përdor një vektor kontrolli të zgjeruar dhe, zakonisht shumë të mëdha. Le ta transformojmë këtë gjendje në një formë më të thjeshtë. Për këtë qëllim, midis grupit të vektorëve të pranueshëm, ne konsiderojmë vetëm ata që kanë përbërës jozero në vetëm një të vetme. i momenti. Me fjalë të tjera, ne kërkojmë për të gjithë , dhe në . Pastaj kushti i optimalitetit merr një formë më të thjeshtë, domethënë,

për të gjitha të vlefshme dmth plotësimi i kushtit

Meqenëse relacioni (4.4) është i vlefshëm për çdo moment , në vend të një kushti optimaliteti, marrim një grup të tërë kushtesh optimaliteti të formës (4.4). Avantazhi i këtyre kushteve është se vetëm një vektor i kontrollit të dimensionit është i përfshirë në secilën prej tyre. t.


Kuptimi fizik i secilit prej kushteve (4.4) është se ndryshimi i kriterit terminal (4.2) për shkak të ndryshimit të kontrollit në i Momenti i th i llogaritur në lidhje me kontrollin optimal është një sasi jo negative.

Kushtet e optimizmit (4.4) nuk janë ende të lidhura në mënyrë eksplicite me modelin origjinal matematikor. Le ta bëjmë këtë lidhje. Për këtë qëllim, ne zgjerojmë derivatet , duke e lidhur këtë të fundit me ekuacionin (4.1). Le të tregojmë fillimisht se si derivati ​​mund të llogaritet nën çdo kontroll dhe dhe çdo zemërim. Për ta bërë këtë, ne dallojmë funksionin J = F(x N + l) përgjatë vektorit me lidhjen (4.1) marrë parasysh. Mund të shkruajmë zinxhirin e mëposhtëm të marrëdhënieve:

Këtu, matricat e derivateve të pjesshme të një funksioni në lidhje me argumentet e tyre dhe përkatësisht shënohen me. Për më tepër, këto matrica formohen sipas rregullit të mëposhtëm: çdo kolonë e matricës paraqet gradientin e komponentit përkatës të funksionit vektor në lidhje me argumentin vektor. Prezantimi zyrtar i shënimit

marrim një shprehje më kompakte për derivatin

Tani prezantojmë në konsideratë edhe zyrtarisht funksionin skalar të mëposhtëm:

i cili është në thelb prodhimi skalar i vektorit , i përcaktuar në përputhje me relacionin e përsëritur (4.5) dhe vektorit , e cila është ana e djathtë e ekuacionit origjinal (4.1). Funksioni H i i përcaktuar sipas (4.7) quhet Hamiltonian. Theksojmë se, në rastin e përgjithshëm, Hamiltoniani është një funksion i rastësishëm, pasi varet nga shqetësimi. Siç do të shohim më poshtë, Hamiltoniani është një ndërtim i përshtatshëm si për formimin e kushteve të optimalitetit ashtu edhe për zbatimin e metodave të ndryshme të optimizimit numerik. Le të fillojmë me kushtet e optimalitetit. Është e lehtë të përcaktohet se derivatet e pjesshme të Hamiltonian në lidhje me argumentet e tyre kanë formën e mëposhtme:

Me këtë në mendje, ekuacionet origjinale të lëvizjes (4.1), si dhe relacionet (4.5), të cilat përcaktojnë vektorin, mund të reduktohen në formën kanonike të mëposhtme:

Ekuacioni për vektorin zakonisht quhet i konjuguar në lidhje me ekuacionin origjinal për vektorin . Prandaj, vetë sistemi i kënaqshëm i vektorit (4.8) do të quhet vektor i konjuguar. Për ta përcaktuar atë me një kontroll të njohur, është e nevojshme, siç vijon nga sistemi (4.8), së pari të përcaktohet trajektorja e lëvizjes në kohë të drejtpërdrejtë për një gjendje fillestare të caktuar. Dhe vetëm pas kësaj, në kohë të kundërt, gjeni vektorin e konjuguar, duke marrë parasysh trajektoren e gjetur dhe gjendjen kufitare të vendosur në vektor.

Nëse tani kthehemi në shprehjen (4.6), atëherë duke përdorur konceptin e Hamiltonian, mund të shkruhet në formën

Duke marrë parasysh që, si rregull, operacionet e diferencimit dhe pritshmëria matematikore janë të pandryshueshme, dhe për rrjedhojë, barazia ndodh

kushtet e nevojshme të optimalitetit (4.4) mund të paraqiten përfundimisht si sistemi i mëposhtëm i pabarazive:

e cila duhet të jetë e pranueshme për të gjithë .

Pra, kushtet e nevojshme të optimalitetit në problemin e programimit të kontrollit të sistemit (4.1) për të arritur minimumin e kriterit (4.2) konsistojnë në plotësimin e sistemit të pabarazive (4.10), i cili duhet të zgjidhet duke marrë parasysh sistemi origjinal i ekuacioneve (4.1) dhe sistemi i konjuguar i ekuacioneve (4.5) ose, çfarë është i njëjtë, sistemet (4.8).

Në rastin e përgjithshëm, përdorimi i drejtpërdrejtë i këtyre kushteve për zgjidhjen e problemit optimal të programimit të kontrollit është i vështirë. Kjo për faktin se vetë kushtet (4.10) nuk janë konstruktive, gjë që manifestohet në faktin se është e vështirë të përdoret sistemi i pabarazive në përgjithësi për të gjetur zgjidhjen optimale. Vështirësitë përkeqësohen, nga njëra anë, nga prania në këto pabarazi të operacionit të pritjes (mesatarja statistikore mbi të gjithë faktorët e rastësishëm) dhe, nga ana tjetër, nga nevoja që çdo zbatim specifik të zgjidhë problemin e vlerës kufitare për sistemi i ekuacioneve (4.1) dhe (4.5). Në këtë rast, kontrolli optimal duhet në çdo realizim të çojë në plotësimin e kushtit kufitar "majtas" në momentin fillestar për sistemin (4.1) dhe kushtit kufitar "djathtas" në momentin përfundimtar për sistemin (4.5).

Duhet theksuar sërish se relacioni (4.6) është i vlefshëm për çdo kontroll fiks (jo domosdoshmërisht optimal). Prandaj, mund të përdoret me sukses në marrjen e kontrollit optimal duke përdorur metodat e optimizimit numerik, pasi lejon, me një kontroll fiks, duke përdorur një llogaritje të gabuar, së pari me ekuacionin (4.1), dhe më pas me ekuacionin (4.6) për të përcaktuar menjëherë të gjithë përbërësit e vektor gradient në një zbatim specifik. Përdorimi i relacionit (4.6) së bashku me (4.1) dhe (4.5) për të llogaritur komponentët e gradientit në vijim, për hir të shumëfishimit, do të quhet metoda e sistemeve të bashkuara.

Le të diskutojmë tani rastet e veçanta më të zakonshme ku kushtet e nevojshme të optimalitetit mund të reduktohen në një formë më konstruktive.

1. Nuk ka kufizime në menaxhim. Në këtë rast, çdo vektor përcakton drejtime të vlefshme, duke përfshirë vektorët me të njëjtat module, por me shenja të kundërta. Dhe kjo do të thotë se kushtet (4.10) mund të plotësohen vetëm në formën e barazive strikte

Duhet theksuar se ne vijmë edhe te ky rast kur kufizimet në kontrolle, edhe pse ekzistojnë, plotësohen automatikisht.

Zgjidhja e problemit të programimit në këtë rast reduktohet në përdorimin e kushtit (4.11) në çdo hap kontrolli në mënyrë që të identifikohet struktura e kontrollit dhe më pas të zgjidhet sistemi (4.8) me strukturën e gjetur.

2. Nuk ka shqetësime të rastësishme, . Ky rast korrespondon me kontrollin e një sistemi determinist. Formalisht, operacioni i pritjes hiqet kudo dhe kushtet e nevojshme të optimizmit (4.40) marrin formën

ku Hamiltoniani dhe vektorët , janë përcaktues dhe përcaktohen duke përdorur marrëdhëniet e mëposhtme:

Të gjitha vështirësitë e zgjidhjes së problemit duke përdorur kushtet e optimalitetit, të diskutuara më herët kur shqyrtohet një sistem stokastik, mbeten gjithashtu këtu. Thjeshtimi konsiston vetëm në faktin se, siç është përmendur tashmë, operacioni i pritshmërisë mungon për shkak të mungesës së vetë faktorëve të rastit.

3. Grupi i kontrolleve të pranueshme është konveks dhe Hamiltoniani është një funksion konveks. Para së gjithash, vërejmë se secili prej kushteve (4.10) në rastin e përgjithshëm mund të interpretohet si një kusht i domosdoshëm për pritjen minimale të Hamiltonian në lidhje me vektorin e kontrollit. . Më tej, mund të tregohet se në rastin e konveksitetit të Hamiltonianit në lidhje me konveksitetin, funksioni . Dhe dihet se në rastin e konveksitetit të funksionit të minimizuar në një grup konveks, minimumi është unik dhe për këtë arsye kushtet e nevojshme të optimalitetit do të jenë njëkohësisht të mjaftueshme. Duke marrë parasysh këtë, çdo kusht i sistemit (4.10) në rastin në shqyrtim rezulton të jetë i barabartë me kushtin që kontrolli optimal i pritshmërisë matematikore të Hamiltonianit të arrijë vlerën e tij minimale në lidhje me kontrollin. Me fjalë të tjera, në vend të (4.10) mund të shkruajmë

ku , tregon çdo kontroll të pranueshëm , a përmes - kontrolli optimal i dëshiruar.

Natyrisht, kombinimet e rasteve të veçanta të diskutuara dhe, në përputhje me rrethanat, kushtet e optimalitetit janë të mundshme. Kështu, për shembull, në rastin determinist, d.m.th., në mungesë të shqetësimeve

() , dhe kur Hamiltoniani është konveks në lidhje me kushtet e nevojshme të optimalitetit marrin formën

Vetitë karakteristike që ka një pikë (vektor) optimale në një problem programimi matematikor. Formulari O. n. y. përcaktohet nga forma në të cilën është specifikuar grupi i pranueshëm. Për herë të parë gjenerali O. n. y. Lagranzhi formuloi për problemet ekstreme në prani të kufizimeve në formën e barazive (shih rregullin e shumëzuesit të Lagranzhit). Në vitin 1951 Amer. Matematikanë G. Kuhn dhe A. Tucker formuluan kushtet e nevojshme dhe të mjaftueshme për optimalitetin e pikës x në problemin e programimit konveks, d.m.th., në problemin e gjetjes

ku funksioni është konkav, dhe të gjitha funksionet janë konveks. Në mënyrë që vektori x të jetë zgjidhje e problemit (1), kur shumësi i pranueshëm përmban ext. pika, d.m.th., është e nevojshme dhe e mjaftueshme që të gjendet një vektor jo negativ u, i cili, së bashku me vektorin x, është një pikë shalë e funksionit të Lagranzhit për të gjithë Nëse, përveç kësaj, funksionet janë të diferencueshëm, atëherë për optimaliteti i vektorit x është i nevojshëm dhe i mjaftueshëm që gjeti një vektor jo negativ u, i cili, së bashku me vektorin x, plotëson sistemin e mëposhtëm të ekuacioneve dhe pabarazive

Nëse funksioni dhe bashkësia Q nuk janë konvekse, atëherë kushtet (2) janë vetëm kushte të nevojshme për optimalitetin e vektorit x. Specifikuar O. n. y. janë një përgjithësim i drejtpërdrejtë i rregullit klasik të shumëzuesve të Lagranzhit për problemin e gjetjes së ekstremit të një funksioni nën kufizime në formën e pabarazive.

Kryesor matematikë. aparati i përdorur në ndërtimin e O. n. y. për problemet në matematikë. programimi në një hapësirë ​​me dimensione të fundme, janë teoremat e ndashmërisë për bashkësitë konvekse dhe teoria e pabarazive lineare. Hetimi i kushteve ekstreme të nevojshme për problemet e matematikës. programimi në përmasa të pafundme. ka marrë një rëndësi të veçantë në lidhje me problemet e optimizmit. menaxhimit. Për herë të parë, kushtet e nevojshme për një ekstrem të një funksional në një mori hapësirash Banach. formuloi bufin. matematikani L. V. Kantorovich në vitin 1940. Në mesin e viteve 1950, Sov. matematikani L. S. Pontryagin formuluar në formën

të parimit maksimal të kushteve ekstreme të nevojshme për probleme optimale. kontrolli (shih parimin maksimal të Iontryagin). Në fillim të viteve '60, bufat. Shkencëtarët A. Ya. Dubovitsky dhe A. A. Milyutin ndërtuan një teori të përgjithshme të kushteve të nevojshme dhe zhvilluan një teknikë për ndërtimin e kushteve të tilla për një klasë të gjerë problemesh në matematikë. programimit. Në veçanti, ata arritën të futnin teorinë e kontrollit optimal në teorinë e përgjithshme

Thelbi i teorisë së përgjithshme të O. n. y. është si më poshtë. Le të jetë e nevojshme për të gjetur

ku - shumësi në hapësirën Banach. disa shumëllojshmëri të kësaj hapësire. Supozojmë se për secilin ekziston një kon konveks K. i tillë që për secilin

për t mjaftueshëm të vogël dhe për të cilën supozojmë më tej se ekziston një nënhapësirë ​​tangjente me L. , d.m.th., për secilin ka një vektor të tillë që për t mjaftueshëm të vogël, dhe për Përveç kësaj, le të ketë një kon konveks Ko, për çdo element të të cilit kushti (4) është i plotësuar për Pastaj pohimi i mëposhtëm (Dubovitsky-Milyutin teorema) vlen: sepse Në mënyrë që pika x të jetë zgjidhje e problemit (3), është e nevojshme që

ku B është hapësira e konjuguar me hapësirën Banach. shumës bosh. Që konet të mos kryqëzohen, është e nevojshme dhe e mjaftueshme që të ekzistojnë funksione, ndër të cilat të paktën njëri është i ndryshëm nga 0 dhe i tillë që teorema Dubovitsky-Milyutin). Në bazë të kësaj teoreme, është e mundur të merren rezultate uniforme të ndryshme, duke filluar nga teoremat klasike të dualitetit në programimin linear dhe duke përfunduar me parimin maksimal të Pontryagin.

Përveç vlerës së pavarur, O. n. y. luajnë një rol të rëndësishëm në krijimin e algoritmeve llogaritëse për kërkimin efektiv të optimales. x pikë. Bazuar në teorinë e O. të n. y. arriti të kuptojë nga një këndvështrim i ri disa rezultate klasike të teorisë së përafrimeve të Chebyshev, probleme momentesh etj. RA Polyak, ME Primak.

OPTIMALITET KUSHTET E MJAFTUESHME

Kushtet që sigurojnë optimalitetin e zgjidhjes së dhënë të problemit të llogaritjes së variacioneve në klasën e zgjedhur të kurbave të krahasimit.
O.d.u. minimumi i dobët (shih): për të ofruar një funksional të dobët

(1) në kushte kufitare. y . (x 0) = y 0 ,y(x 1) = y 1 , mjafton që të plotësohen kushtet e mëposhtme.

1) Kurba duhet të jetë ekstreme, d.m.th., të kënaqë Ekuacioni i Euler-it


2) Përgjatë kurbës, duke përfshirë skajet e saj, të përforcuara Gjendja legjendare

Fy "y"(x, y, y") > 0.

3) Kurba duhet të kënaqë të përforcuarin Gjendja Jacobi, duke kërkuar që ekuacionet Jacobi

(2) me kushtet fillestare

h (x 0) \u003d 0, h "(x 0) \u003d 1

Funksioni Weierstrass, dhe dhe ( x, y) - pjerrësia e fushës. ekstrem, rrethues

Në vetë ekstremin, kushti (3) merr

Kushti (4) është i nevojshëm për një minimum të fortë; quhet kushti i nevojshëm i Weierstrass. Kështu, ndryshe nga kushtet e mjaftueshme për një minimum të dobët, të cilat kërkojnë përmbushjen e disa kushteve të nevojshme të forcuara në pika të vetë ekstremit, në kushte të mjaftueshme për një minimum të fortë, kushti i nevojshëm i Weierstrass duhet të plotësohet në një lagje të caktuar të ekstremit. Në rastin e përgjithshëm, nuk mund të dobësohet deklarata e kushteve të mjaftueshme për një minimum të fortë duke zëvendësuar kërkesën që kushti Weierstrass të plotësohet në një lagje të ekstremalit me kushtin e forcuar të Weierstrass (kushti (4) me një shenjë strikte pabarazie) në pikat e ekstremit (shih).

Për problemet variacionale joklasike të konsideruara në kontrolli optimal i matematikës teori, ka disa qasje për të krijuar O. d. ekstrem absolut.

Le të shtrohet problemi i kontrollit optimal, në të cilin kërkohet të përcaktohet minimumi i funksionalit

sipas kushteve


ku U- jepet bashkësi e mbyllur e hapësirës p-dimensionale.

Kur përdorni metodën e programimit dinamik O. d. at. janë formuluar si më poshtë. Në mënyrë që kontrolli u(t) të jetë kontrolli optimal në problemin (5)-(8), mjafton që:

1) kishte S(x) të tillë , që ka derivate të pjesshme të vazhdueshme për të gjithë X, me përjashtim të mundshëm të disa grupeve të lëmuara pjesë-pjesë me dimension më të vogël se P,është zero në pikën përfundimtare x 1, S(x 1)=0, dhe plotëson ekuacionin Bellman

2) u(t) =v(x(t)) , në , ku v(x) - funksioni sintetizues i përcaktuar nga ekuacioni Bellman:


Në fakt, kur përdoret metoda dinamike. programimi, fitohet një rezultat më i fortë: O. d. për një sërë kontrollesh të ndryshme që transferojnë pikën e fazës nga një gjendje fillestare arbitrare në një gjendje përfundimtare të dhënë x 1.

Në një rast më të përgjithshëm, kur merret parasysh një sistem jo-autonom, d.m.th., funksioni integrand dhe vektori i anëve të djathtë varen gjithashtu nga koha. t, funksioni S duhet të varet nga t dhe termi duhet të shtohet në anën e majtë të ekuacionit (9). Ka (krh. ) në të cilën ishte e mundur të hiqej një kusht shumë i turpshëm dhe i paplotësuar në shumicën e problemeve, por zakonisht të supozuar për diferencimin e vazhdueshëm të funksionit S(x). për të gjitha X.

O.d.u. mund të ndërtohet në bazë të parimit maksimal të Pontryagin. Nëse një sintezë e rregullt kryhet në një rajon të caktuar të hapësirës së fazës G, atëherë të gjitha trajektoret e marra duke përdorur parimin maksimal gjatë ndërtimit të një sinteze të rregullt janë optimale në rajon. G.

Megjithëse përkufizimi i një sinteze të rregullt është mjaft i rëndë, ai në thelb nuk imponon ndonjë kufizim të veçantë për problemin (5)-(8).

Ekziston një qasje tjetër për krijimin e O. d. (cm. ). Le të jetë j(x) një funksion që është i vazhdueshëm së bashku me derivatet e tij të pjesshëm për të gjitha të pranueshmet X, që i përkasin një rajoni të caktuar G, dhe

Në mënyrë që çifti , të japë një minimum absolut në problemin (5) - (8), mjafton të kemi një funksion të tillë j(x) që

Lejohen ndryshimet e duhura në formulimin e mësipërm të O. d. për raste më të përgjithshme të një sistemi joautonom, probleme me funksionet e tipit Mayer dhe Boltz (shih Detyrë Bolza), dhe gjithashtu për regjimet optimale rrëshqitëse (shih).

Problemet variacionale janë studiuar me funksionalët në formën e integraleve të shumëfishta dhe lidhjet diferenciale në formën e ekuacioneve diferenciale të pjesshme, në të cilat merren parasysh funksionet e disa ndryshoreve (shih).

Ndezur.: Lavrentiev M. A., Lyusternik L. A., Course of the calculus of variations, 2nd ed., M.-L., 1950; Bliss G. A. Leksione mbi llogaritjen e variacioneve, përkth. nga anglishtja, M., 1950; Bellman R., Dinamik, përkth. nga anglishtja, M., 1960; Boltyansky V. G., Metodat matematikore të kontrollit optimal, M., 1966; Krotov V.F., "Automatizimi dhe telemekanika", 1962, vëll 23, nr 12, f. 1571-83; 1963, vëll 24, nr 5, f. 581-98; Butkovsky A. G., Teoria e kontrollit optimal të sistemeve me parametra të shpërndarë, M., 1965. I. B. Vapnyarsky.


Enciklopedi matematikore. - M.: Enciklopedia Sovjetike. I. M. Vinogradov. 1977-1985.

Shihni se çfarë është "KUSHTET E MJAFTUESHME TË OPTIMALITETIT" në fjalorë të tjerë:

    Në teorinë e optimizimit, kushtet e Karush Kuhn Tucker (KKT) janë kushte të nevojshme për zgjidhjen e një problemi programimi jolinear. Që zgjidhja të jetë optimale, duhet të përmbushen disa ... ... Wikipedia

    Zgjidhja e problemit të kontrollit optimal të teorisë matematikore, në të cilën veprimi i kontrollit u = u (t) formohet në funksion të kohës (pra, supozohet se gjatë procesit nuk ka asnjë informacion, përveç atij të dhënë në vetë fillimi, hyn në sistem ...... Enciklopedia Matematikore

    Wikipedia ka artikuj për njerëz të tjerë me atë mbiemër, shih Krotov. Vadim Fedorovich Krotov Data e lindjes: 14 shkurt 1932 (1932 02 14) (80 vjeç) Vendi i lindjes ... Wikipedia

    Metodat numerike janë një degë e matematikës llogaritëse e përkushtuar ndaj metodave për gjetjen e vlerave ekstreme të funksioneve. Metodat numerike të V. dhe. Është zakon të ndahet në dy klasa të mëdha: metoda indirekte dhe direkte. Metodat indirekte bazohen në ... ... Enciklopedia Matematikore

    Bërthama C (shqiptohet thelbi tse) është parimi i optimalitetit në teorinë e lojërave bashkëpunuese, i cili është një grup shpërndarjesh efektive fituese që janë rezistente ndaj devijimeve të çdo koalicioni lojtarësh, domethënë një grup vektorësh të tillë që: dhe . .. ... Wikipedia

    Me thelbin e parimit të optimalitetit në teorinë e lojërave bashkëpunuese, i cili është një grup shpërndarjesh efektive fitimi që janë rezistente ndaj devijimeve të çdo koalicioni lojtarësh, domethënë një grup vektorësh të tillë që: dhe për çdo koalicion, . .. Wikipedia

    Vlera minimale e arritur nga funksioni J(y) në lakore është e tillë që (1) për të gjitha kurbat e krahasimit y(x) që plotëson kushtin e afërsisë e të rendit zero: (2) në të gjithë intervalin . Supozohet se kthesat plotësojnë ... ... Enciklopedia Matematikore

    - (lindur më 21 tetor 1926, Novosibirsk) matematikan rus. Shef i Departamentit të Kibernetikës Teorike të Fakultetit të Matematikës dhe Mekanikës të Universitetit Shtetëror të Shën Petersburgut, Anëtar korrespondent i Akademisë së Shkencave Ruse, Akademik ... ... Wikipedia

    Vladimir Andreevich Yakubovich (lindur më 21 tetor 1926, Novosibirsk) është një matematikan rus. Shef i Departamentit të Kibernetikës Teorike të Fakultetit të Matematikës dhe Mekanikës të Universitetit Shtetëror të Shën Petersburgut, Anëtar Korrespondent ... ... Wikipedia

Ne marrim kushtet e optimalitetit që duhet të plotësojë sekuenca e dëshiruar e kontrollit. Për këtë qëllim, problemin e formuluar më sipër e interpretojmë si problem të programimit matematik.

Le të paraqesim kriterin (4.2) si një funksion të kontrollit të kërkuar

Këtu poshtë dhe dhe £ kuptohen se janë sekuenca , të shkruara për definicion si vektorë të zgjeruar me dimensione (N+l)m dhe (N+l)r përkatësisht. Varësia e funksionit të gjendjes fundore J nga dhe dhe të nënkuptuar dhe manifestohet përmes ekuacionit (4.1). Formalisht, problemi i optimizimit konsiston në gjetjen e një vektori të tillë midis atyre të pranueshëm dhe, e cila minimizon kriterin . Dhe ky është një problem i zakonshëm i programimit matematik. Kushti i domosdoshëm për optimizëm në një problem të tillë reduktohet në përmbushjen e kushtit të mosnegativitetit të derivatit në pikën e dëshiruar. dhe në çdo drejtim të pranueshëm, d.m.th.

Këtu dhe më poshtë, shënimi përdoret për të treguar gradientin e një funksioni skalar J(s) me argument vektorial dhe, llogaritur në pikë dhe = a. Nën Gradient , siç dihet, kuptohet një vektor (kolona), i përbërë nga derivatet e parë të pjesshëm të funksionit / në lidhje me të gjitha argumentet e vektorit. dhe. Në këtë rast, ajo mund të përfaqësohet si më poshtë:

ku nga ana tjetër tregon gradientin e funksionit J nga një vektor i veçantë .

Le të shpjegojmë tani termin drejtim i vlefshëm. Me drejtim të pranueshëm nënkuptohet një vektor i tillë, i cili, duke u shtuar në vektor dhe, nuk do të çojë në shkelje të kufizimeve fillestare të kontrollit për ndonjë vlerë arbitrare të vogël të modulit të vetë vektorit. Me fjalë të tjera, konsiderohet e pranueshme nëse plotësohet kushti, ku nën U grupi i të gjitha grupeve të pranueshme është tkurrur , a është një numër mjaft i vogël jo negativ. Vëmë re gjithashtu se kur shkruajmë disa derivate të pjesshëm, natyrshëm do të supozojmë, pa përcaktuar në mënyrë specifike, se ato ekzistojnë.

Është e vështirë të punohet me kushtin e optimalitetit të paraqitur këtu, pasi përdor një vektor kontrolli të zgjeruar dhe, zakonisht shumë të mëdha. Le ta transformojmë këtë gjendje në një formë më të thjeshtë. Për këtë qëllim, midis grupit të vektorëve të pranueshëm, ne konsiderojmë vetëm ata që kanë përbërës jozero në vetëm një të vetme. i momenti. Me fjalë të tjera, ne kërkojmë për të gjithë , dhe në . Pastaj kushti i optimalitetit merr një formë më të thjeshtë, domethënë,



për të gjitha të vlefshme dmth plotësimi i kushtit

Meqenëse relacioni (4.4) është i vlefshëm për çdo moment , në vend të një kushti optimaliteti, marrim një grup të tërë kushtesh optimaliteti të formës (4.4). Avantazhi i këtyre kushteve është se vetëm një vektor i kontrollit të dimensionit është i përfshirë në secilën prej tyre. t.

Kuptimi fizik i secilit prej kushteve (4.4) është se ndryshimi i kriterit terminal (4.2) për shkak të ndryshimit të kontrollit në i Momenti i th i llogaritur në lidhje me kontrollin optimal është një sasi jo negative.

Kushtet e optimizmit (4.4) nuk janë ende të lidhura në mënyrë eksplicite me modelin origjinal matematikor. Le ta bëjmë këtë lidhje. Për këtë qëllim, ne zgjerojmë derivatet , duke e lidhur këtë të fundit me ekuacionin (4.1). Le të tregojmë fillimisht se si derivati ​​mund të llogaritet nën çdo kontroll dhe dhe çdo zemërim. Për ta bërë këtë, ne dallojmë funksionin J = F(x N + l) përgjatë vektorit me lidhjen (4.1) marrë parasysh. Mund të shkruajmë zinxhirin e mëposhtëm të marrëdhënieve:

Këtu, matricat e derivateve të pjesshme të një funksioni në lidhje me argumentet e tyre dhe përkatësisht shënohen me. Për më tepër, këto matrica formohen sipas rregullit të mëposhtëm: çdo kolonë e matricës paraqet gradientin e komponentit përkatës të funksionit vektor në lidhje me argumentin vektor. Prezantimi zyrtar i shënimit

marrim një shprehje më kompakte për derivatin

Tani prezantojmë në konsideratë edhe zyrtarisht funksionin skalar të mëposhtëm:

i cili është në thelb prodhimi skalar i vektorit , i përcaktuar në përputhje me relacionin e përsëritur (4.5) dhe vektorit , e cila është ana e djathtë e ekuacionit origjinal (4.1). Funksioni H i i përcaktuar sipas (4.7) quhet Hamiltonian. Theksojmë se, në rastin e përgjithshëm, Hamiltoniani është një funksion i rastësishëm, pasi varet nga shqetësimi. Siç do të shohim më poshtë, Hamiltoniani është një ndërtim i përshtatshëm si për formimin e kushteve të optimalitetit ashtu edhe për zbatimin e metodave të ndryshme të optimizimit numerik. Le të fillojmë me kushtet e optimalitetit. Është e lehtë të përcaktohet se derivatet e pjesshme të Hamiltonian në lidhje me argumentet e tyre kanë formën e mëposhtme:



Me këtë në mendje, ekuacionet origjinale të lëvizjes (4.1), si dhe relacionet (4.5), të cilat përcaktojnë vektorin, mund të reduktohen në formën kanonike të mëposhtme:

Ekuacioni për vektorin zakonisht quhet i konjuguar në lidhje me ekuacionin origjinal për vektorin . Prandaj, vetë sistemi i kënaqshëm i vektorit (4.8) do të quhet vektor i konjuguar. Për ta përcaktuar atë me një kontroll të njohur, është e nevojshme, siç vijon nga sistemi (4.8), së pari të përcaktohet trajektorja e lëvizjes në kohë të drejtpërdrejtë për një gjendje fillestare të caktuar. Dhe vetëm pas kësaj, në kohë të kundërt, gjeni vektorin e konjuguar, duke marrë parasysh trajektoren e gjetur dhe gjendjen kufitare të vendosur në vektor.

Nëse tani kthehemi në shprehjen (4.6), atëherë duke përdorur konceptin e Hamiltonian, mund të shkruhet në formën

Duke marrë parasysh që, si rregull, operacionet e diferencimit dhe pritshmëria matematikore janë të pandryshueshme, dhe për rrjedhojë, barazia ndodh

kushtet e nevojshme të optimalitetit (4.4) mund të paraqiten përfundimisht si sistemi i mëposhtëm i pabarazive:

e cila duhet të jetë e pranueshme për të gjithë .

Pra, kushtet e nevojshme të optimalitetit në problemin e programimit të kontrollit të sistemit (4.1) për të arritur minimumin e kriterit (4.2) konsistojnë në plotësimin e sistemit të pabarazive (4.10), i cili duhet të zgjidhet duke marrë parasysh sistemi origjinal i ekuacioneve (4.1) dhe sistemi i konjuguar i ekuacioneve (4.5) ose, çfarë është i njëjtë, sistemet (4.8).

Në rastin e përgjithshëm, përdorimi i drejtpërdrejtë i këtyre kushteve për zgjidhjen e problemit optimal të programimit të kontrollit është i vështirë. Kjo për faktin se vetë kushtet (4.10) nuk janë konstruktive, gjë që manifestohet në faktin se është e vështirë të përdoret sistemi i pabarazive në përgjithësi për të gjetur zgjidhjen optimale. Vështirësitë përkeqësohen, nga njëra anë, nga prania në këto pabarazi të operacionit të pritjes (mesatarja statistikore mbi të gjithë faktorët e rastësishëm) dhe, nga ana tjetër, nga nevoja që çdo zbatim specifik të zgjidhë problemin e vlerës kufitare për sistemi i ekuacioneve (4.1) dhe (4.5). Në këtë rast, kontrolli optimal duhet në çdo realizim të çojë në plotësimin e kushtit kufitar "majtas" në momentin fillestar për sistemin (4.1) dhe kushtit kufitar "djathtas" në momentin përfundimtar për sistemin (4.5).

Duhet theksuar sërish se relacioni (4.6) është i vlefshëm për çdo kontroll fiks (jo domosdoshmërisht optimal). Prandaj, mund të përdoret me sukses në marrjen e kontrollit optimal duke përdorur metodat e optimizimit numerik, pasi lejon, me një kontroll fiks, duke përdorur një llogaritje të gabuar, së pari me ekuacionin (4.1), dhe më pas me ekuacionin (4.6) për të përcaktuar menjëherë të gjithë përbërësit e vektor gradient në një zbatim specifik. Përdorimi i relacionit (4.6) së bashku me (4.1) dhe (4.5) për të llogaritur komponentët e gradientit në vijim, për hir të shumëfishimit, do të quhet metoda e sistemeve të bashkuara.

Le të diskutojmë tani rastet e veçanta më të zakonshme ku kushtet e nevojshme të optimalitetit mund të reduktohen në një formë më konstruktive.

1. Nuk ka kufizime në menaxhim. Në këtë rast, çdo vektor përcakton drejtime të vlefshme, duke përfshirë vektorët me të njëjtat module, por me shenja të kundërta. Dhe kjo do të thotë se kushtet (4.10) mund të plotësohen vetëm në formën e barazive strikte

Duhet theksuar se ne vijmë edhe te ky rast kur kufizimet në kontrolle, edhe pse ekzistojnë, plotësohen automatikisht.

Zgjidhja e problemit të programimit në këtë rast reduktohet në përdorimin e kushtit (4.11) në çdo hap kontrolli në mënyrë që të identifikohet struktura e kontrollit dhe më pas të zgjidhet sistemi (4.8) me strukturën e gjetur.

2. Nuk ka shqetësime të rastësishme, . Ky rast korrespondon me kontrollin e një sistemi determinist. Formalisht, operacioni i pritjes hiqet kudo dhe kushtet e nevojshme të optimizmit (4.40) marrin formën

ku Hamiltoniani dhe vektorët , janë përcaktues dhe përcaktohen duke përdorur marrëdhëniet e mëposhtme:

Të gjitha vështirësitë e zgjidhjes së problemit duke përdorur kushtet e optimalitetit, të diskutuara më herët kur shqyrtohet një sistem stokastik, mbeten gjithashtu këtu. Thjeshtimi konsiston vetëm në faktin se, siç është përmendur tashmë, operacioni i pritshmërisë mungon për shkak të mungesës së vetë faktorëve të rastit.

3. Grupi i kontrolleve të pranueshme është konveks dhe Hamiltoniani është një funksion konveks. Para së gjithash, vërejmë se secili prej kushteve (4.10) në rastin e përgjithshëm mund të interpretohet si një kusht i domosdoshëm për pritjen minimale të Hamiltonian në lidhje me vektorin e kontrollit. . Më tej, mund të tregohet se në rastin e konveksitetit të Hamiltonianit në lidhje me konveksitetin, funksioni . Dhe dihet se në rastin e konveksitetit të funksionit të minimizuar në një grup konveks, minimumi është unik dhe për këtë arsye kushtet e nevojshme të optimalitetit do të jenë njëkohësisht të mjaftueshme. Duke marrë parasysh këtë, çdo kusht i sistemit (4.10) në rastin në shqyrtim rezulton të jetë i barabartë me kushtin që kontrolli optimal i pritshmërisë matematikore të Hamiltonianit të arrijë vlerën e tij minimale në lidhje me kontrollin. Me fjalë të tjera, në vend të (4.10) mund të shkruajmë

ku , tregon çdo kontroll të pranueshëm , a përmes - kontrolli optimal i dëshiruar.

Natyrisht, kombinimet e rasteve të veçanta të diskutuara dhe, në përputhje me rrethanat, kushtet e optimalitetit janë të mundshme. Kështu, për shembull, në rastin determinist, d.m.th., në mungesë të shqetësimeve

() , dhe kur Hamiltoniani është konveks në lidhje me kushtet e nevojshme të optimalitetit marrin formën

Vini re se nëse, kur futni shënimin (4.6), vektori përcaktohet si derivat i funksionit terminal në lidhje me shenjën e kundërt, d.m.th., në formën

më pas, për shkak të ndryshimit të shenjës së vektorit në kushtet e optimalitetit (4.10), edhe shenja e pabarazisë ndryshon në të kundërtën, dhe si pasojë, në kushtet e optimalitetit (4.12), (4.13), operacioni minimal zëvendësohet me funksionimin maksimal. Në rastin përcaktues, në vend të (4.13) kemi

Kushti i fundit i optimalitetit në literaturë zakonisht referohet si parimi maksimal i i për sistemet e kontrollit diskrete përcaktues, ose shkurtimisht si parimi i maksimumit përcaktues diskret. Për analogji, kushti (4.13) mund të quhet një parim minimal përcaktues diskret, dhe kushti i optimalitetit (4.12) mund të quhet një parim minimal stokastik diskret.

Sipas parimit minimal stokastik diskret (4.12), programi optimal i kontrollit për sistemin diskret (4.1), në kushte konveksiteti, siguron minimumin e pritshmërisë matematikore të Hamiltonianit në çdo hap kontrolli. Më vonë do të shohim se parimi minimal (maksimumi) për problemet me kohë të vazhdueshme është i vlefshëm jashtë supozimeve për konveksitetin e Hamiltonianit. Megjithatë, për problemet diskrete, këto supozime rezultojnë të jenë thelbësore.

Le të tregojmë tani se në problemin e kontrollit për një sistem diskret (4.1) për të minimizuar kriterin integroterminal (4.3)

ruhen kushtet e optimalitetit që rezultojnë (4.10) ose, përkatësisht, (4.11), (4.12). Sidoqoftë, në vend të marrëdhënieve (4.7) dhe (4.5), të cilat përcaktojnë vektorin Hamiltonian dhe të konjuguar, ato plotësojnë ekuacionet e mëposhtme:

Sepse për të gjithë , pastaj Hamiltonian, deri në një komponent përkon me Hamiltonian në (4.14). Prandaj, shprehja për derivatin , të përfshirë në kushtet e optimalitetit, mund të kthehemi në formën e mëparshme (4.9):

përkundër faktit se Hamiltoniani tani përkufizohet sipas (4.14) në vend të (4.7). Kjo do të thotë që kushtet e optimalitetit të formës mbeten të pandryshuara.

Për proceset përcaktuese dhe stokastike me informacion të mjaftueshëm apriori (dhe vetëm ky rast do të shqyrtohet në këtë kapitull), kriteri i optimalitetit, d.m.th., funksional, njihet në formë eksplicite dhe kufizimet janë gjithashtu të njohura. Së pari, nëse nuk përcaktohet ndryshe, do të supozojmë se nuk ka kufizime të llojit të dytë dhe kufizimet e llojit të parë, siç ndodh shpesh, përjashtohen me zëvendësimin në funksional. Në këtë rast, natyrisht, dimensioni fillestar i vektorit të dëshiruar c zvogëlohet.

Nëse funksioni pranon diferencimin, atëherë ai arrin një ekstrem (maksimum ose minimal) vetëm për vlera të tilla , për të cilat derivatet e pjesshme zhduken njëkohësisht, ose, me fjalë të tjera, për të cilat gradienti i funksionit

(2.1)

shkon në zero.

Vektorët që plotësojnë kushtin

quhen stacionare ose njëjës. Jo të gjithë vektorët e palëvizshëm janë optimalë, domethënë ato korrespondojnë me ekstremin e dëshiruar të funksionalit. Prandaj, kushti (2.2) është vetëm një kusht i domosdoshëm për optimizëm.

Do të ishte e mundur të shkruani kushte të mjaftueshme për një ekstrem në formën e pabarazive në lidhje me përcaktuesit që përmbajnë derivate të pjesshëm të rendit të dytë të funksionalit në lidhje me të gjithë përbërësit e vektorit. Sidoqoftë, vështirë se ia vlen ta bëni këtë edhe në rastet kur nuk kërkon llogaritje dhe llogaritje të rënda.

Shpesh, duke u nisur drejtpërdrejt nga kushtet e problemit fizik për të cilin është ndërtuar funksionalja, është e mundur të përcaktohet se me çfarë korrespondon vektori i palëvizshëm - një minimum ose një maksimum. Kjo është veçanërisht e lehtë për t'u vërtetuar në ato raste që hasen shpesh dhe janë me interes për ne, kur ka vetëm një ekstrem.

Kushtet e optimizmit veçojnë vetëm ekstremet lokale, dhe nëse ka shumë prej tyre, atëherë problemi i gjetjes së një ekstremi absolut ose global bëhet shumë i vështirë. Disa mundësi për zgjidhjen e këtij problemi do të diskutohen më vonë.

Tani do të kufizojmë veten në rastin kur vlera optimale e vektorit është unike, dhe për saktësi do të supozojmë se vlera ekstreme e funksionalit është një minimum.



Artikulli i mëparshëm: Artikulli vijues:

© 2015 .
Rreth sajtit | Kontaktet
| harta e faqes