Проверяемый текст
Новиков Д.А., Иващенко А.А. Модели и методы организационного управления инновационным развитием фирмы. – М.: КомКнига, 2006
[стр. 81]

81 I » I В частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной (точнее ^-оптимальной, где д= является компенсаторная система стиieN мулирования: < г „ М \ + (2.3.5) [о, у, * У , где eN сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие у*, реализуемое системой стимулирования (2.3.5) как равновесие в доминантных стратегиях (РДС) [49], является решением следующей задачи оптимального согласованного планирования: у = arg max {Н(у) )• (2.3.6) Mt Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем подразделе случай коллективного стимулирования) и затраты не сепарабельны (то есть затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то множестваравновесий Нэша [49] EN{d) ciA и РДС>^ е А имеют вид: а д = { / е А I V i e N V y , е А , < * ( / ) с,<у " у " ) ф ь у" у* е А, доминантная стратегия /-го агента, тогда и только тогда, когда I Vyt е А„ Vу., € А.,I сг/(y,d, у .,) с,{yid, у.,) >at{yhу.,) с,{у,-, у.,).
Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система стимулирования реализует соответствующий вектор действий как РДС.
Фиксируем произвольный вектор действий агентов
у е А и рассмотрим следующую систему стимулирования: оку, у) = М ’У-i)+ 0, е о, У, * У, » I
[стр. 234]

234 Так как и затраты, и стимулирование каждого агента в рассматриваемой модели зависят в общем случае от действий всех агентов, то последние оказываются вовлеченными в игру, в которой выигрыш каждого зависит от действий всех.
Обозначим P(s) – множество равновесных при системе стимулирования s стратегий агентов – множество решений игры (тип равновесия пока не оговаривается; единственно предположим, что агенты выбирают свои стратегии однократно, одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и полезностью).
Как и в одноэлементной ОС, рассмотренной в подразделе 5.2.1, гарантированной эффективностью (далее просто «эффективностью») стимулирования является минимальное значение целевой функции центра на соответствующем множестве решений игры агентов: (3) K(s) = )( min sPyÎ F(s, y).
Задача синтеза оптимальной функции стимулирования заключается в поиске допустимой системы стимулирования s* , имеющей максимальную эффективность: (4) s* = arg s max K(s).
Из результатов подраздела 5.2.1 следует, что в частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной (точнее – d-оптимальной, где d = åÎNi id ) является компенсаторная система стимулирования: (5) î í ì ¹ =+ = * ** ,0 ,)( )( ii iiiii iKi yy yyyc y d s , i Î N, где {di}i Î N – сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие y* , реализуемое системой стимулирования (5) как равновесие в доминантных стратегиях (РДС) [83], является решением следующей задачи оптимального согласованного планирования: (6) y* = arg AyÎ max {H(y) – åÎNi ii yc )( }.


[стр.,235]

235 Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем подразделе случай коллективного стимулирования) и затраты не сепарабельны (то есть затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то множества равновесий Нэша [83] EN(s) Í A и РДС yd Î A имеют вид: EN(s) = {yN Î A " i Î N " yi Î Ai si(yN ) – ci( N y ) ³ si(yi, N iy) – ci(yi, N iy)}; Действие diy Î Ai – доминантная стратегия i-го агента, тогда и только тогда, когда " yi Î Ai, " y-i Î A-i si( diy , y-i) – ci( diy , y-i) ³ si(yi, y-i) – ci(yi, y-i).
Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система стимулирования реализует соответствующий вектор действий как РДС.
Фиксируем произвольный вектор действий агентов
y* Î A и рассмотрим следующую систему стимулирования: (7) si(y* , y) = î í ì ¹ =+yy yyyyc ii iiiiii * ** ,0 ,),( d , di ³ 0, i Î N.
Полученный в [171] результат остается в силе и для рассматриваемой модели: при использовании центром системы стимулирования (7) y* – РДС.
Более того, если di > 0, i Î N, то y* – единственное РДС.
Вектор оптимальных реализуемых действий агентов y* , фигурирующий в качестве параметра в выражении (7), определяется в результате решения следующей задачи оптимального согласованного планирования: (8) y* = arg AyÎ max {H(y) – åÎNi i yc )( }, а эффективность системы стимулирования (7), (8) равна следующей величине: K* = H(y* ) – åÎNi i yc )( * – d.

[Back]