Проверяемый текст
Новиков Д.А., Иващенко А.А. Модели и методы организационного управления инновационным развитием фирмы. – М.: КомКнига, 2006
[стр. 80]

80 вестных функциях стимулирования одновременно и независимо выбирают действия, максимизирующие их целевые функции.
Обобщая предложенную в
[91] модель, относительно параметров ОС вве дем следующие предположения: -множество At допустимых действий /-го агента является компактом в И*,.* • • / -функции затрат агентов непрерывны, неотрицательны и ByLC Ai £ Аь такое, что 1 /у., е A .
i arg min с,(у* у.,) = уьсл,, причем Vy_, еЛ., c,(yLCA ,, УУ 1 * 4 функция дохода центра непрерывна по всем переменным и достигает максимума при векторе действий агентов, отличном от У ЬС А = (УЮ АUУ ЬС А2, УЬСАп)Так как и затраты, и стимулирование каждого агента в рассматриваемой модели зависят в общем случае от действий всех агентов, то последние оказываются вовлеченными в игру, в которой выигрыш каждого зависит от действий всех.
Обозначим
Р(о) —множество равновесных при системе стимулирования а ш стратегий агентов множество решений игры (тип равновесия пока не оговаривается; единственно предположим, что агенты выбирают свои стратегии однократно, одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и полезностью).
Как и в одноэлементной ОС,
гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры агентов: К(о) = 7min Ф{(7,у).
(2.3.3) уеР(<т) Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования а\ имеющей максимальную эффективность: о= arg max К(а).
(2.3.4) >
[стр. 113]

113 Обозначим P(s) – множество реализуемых действий (выбираемых агентами при данной системе стимулирования).
Минимальными затратами центра на стимулирование по реализации вектора действий агентов y Î A’ будем называть минимальное значение суммарных выплат элементам, при которых данный вектор действий является равновесием Нэша в игре агентов, то есть решение следующей задачи: åÎ XÎ× ® Ni y i ryQ )()( min)),,(( s as , где X(y) = {s(×) y Î P(s)}.
Как и в одноэлементной ОС [169], гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры: (3) K(s(×), l, a, r) = ))(( min ×Î sPy F(s(×), Q(y, a), l, r).
Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования
s* , имеющей максимальную эффективность: (4) s* (l, a, r) = arg )( max ×s K(s(×), l, a, r).
В [171] доказано, что в частном случае, когда действия агентов наблюдаются центром, и типы агентов также достоверно известны центру, оптимальной (точнее – d-оптимальной, где d = å= n i i 1 d ) является квазикомпенсаторная система стимулирования Ks~ , зависящая от наблюдаемых действий агентов: (5) Kis~ î í ì ¹ =+ = * ** ,0 ,),( ii iiiii yy yyryc d , i Î N, где di – сколь угодно малые строго положительные константы, i Î N, а оптимальное действие y* , реализуемое системой стимулирования (5) как единственное равновесие в доминантных стратегиях (РДС) [83], является решением следующей задачи оптимального согласованного планирования [44]: y* (r) = arg Ay ¢Î max { H ~ (y) – åÎIi ii ryc ),( },

[стр.,233]

233 ков ОС – центра и агентов – выражены их целевыми функциями.
Целевая функция центра F(s, y) представляет собой разность между его доходом H(y) и суммарным вознаграждением u(y), выплачиваемым агентам: u(y) = å= n i i y 1 )(s , где si(y) – стимулирование i-го агента, s(y) = (s1(y), s2(y), …, sn(y)).
Целевая функция i-го агента fi(si, y) – разность между стимулированием, получаемым от центра, и затратами ci(y), то есть: (1) F(s, y) = H(y) – å = n i i y 1 )(s .
(2) fi(si, y) = si(y) – ci(y), i Î N.
Отметим, что и индивидуальное вознаграждение, и индивидуальные затраты i-го агента по выбору действия yi в общем случае зависят от действий всех агентов (случай сильно связанных агентов с несепарабельными затратами).
Примем следующий порядок функционирования ОС.
Центру и агентам на момент принятия решения о выбираемых стратегиях (соответственно – функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС.
Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования одновременно и независимо выбирают действия, максимизирующие их целевые функции.
Обобщая предложенную в
[171] модель, относительно параметров ОС введем следующие предположения: множество Ai допустимых действий i-го агента является компактом в ik  ; функции затрат агентов непрерывны, неотрицательны и $ yLCA i Î Ai, такое, что " y-i Î A-i arg ii Ay Î min ci(yi, y-i) = yLCA i, причем " y-i Î A-i ci(yLCA i, y-i) = 0; функция дохода центра непрерывна по всем переменным и достигает максимума при векторе действий агентов, отличном от yLCA = (yLCA 1, yLCA 2, ..., yLCA n).


[стр.,234]

234 Так как и затраты, и стимулирование каждого агента в рассматриваемой модели зависят в общем случае от действий всех агентов, то последние оказываются вовлеченными в игру, в которой выигрыш каждого зависит от действий всех.
Обозначим
P(s) – множество равновесных при системе стимулирования s стратегий агентов – множество решений игры (тип равновесия пока не оговаривается; единственно предположим, что агенты выбирают свои стратегии однократно, одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и полезностью).
Как и в одноэлементной ОС,
рассмотренной в подразделе 5.2.1, гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры агентов: (3) K(s) = )( min sPyÎ F(s, y).
Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования
s* , имеющей максимальную эффективность: (4) s* = arg s max K(s).
Из результатов подраздела 5.2.1 следует, что в частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной (точнее – d-оптимальной, где d = åÎNi id ) является компенсаторная система стимулирования: (5) î í ì ¹ =+ = * ** ,0 ,)( )( ii iiiii iKi yy yyyc y d s , i Î N, где {di}i Î N – сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие y* , реализуемое системой стимулирования (5) как равновесие в доминантных стратегиях (РДС) [83], является решением следующей задачи оптимального согласованного планирования: (6) y* = arg AyÎ max {H(y) – åÎNi ii yc )( }.

[Back]