Проверяемый текст
Новиков Д.А., Иващенко А.А. Модели и методы организационного управления инновационным развитием фирмы. – М.: КомКнига, 2006
[стр. 77]

77 то сколь угодно малая неточность может приводить к значительным изменениям реализуемых действий.
Вопросы адекватности моделей стимулирования, устойчивости оптимальных решений и т.д.
подробно исследовались в
Предложенная в упомянутых работах техника анализа и методы повышения гарантированной (в рамках имеющейся у центра информации) эффективности стимулирования могут быть непосредственно использованы и для моделей, рассматриваемых ниже, поэтому проблемы адекватности и устойчивости в настоящей работе не исследуются.
Выше мы рассматривали случай отсутствия агрегирования информации.
Теперь предположим, что агрегирование информации имеет место, то есть доход центра h(z) зависит от наблюдаемого им результата деятельности агента * z=Q (
y )е В с*9 1 т ,причем т <к, где Q(-): А — > В~ однозначное непрерывное отображение, такое, что (J0O ) = В.
Отметим, что при этом предполагается, уеА что оператор агрегирования и функция затрат агента центру известны, а действия не наблюдаются.
Фиксируем произвольный результат деятельности агента z
е В и вычислим, во-первых, множество его действий, приводящих к данному результату: Y(z) = (y e A \Q (y )= z }, (2.2.8) и, во-вторых, минимальные затраты агента по достижению данного результата: ь C(z) = min с(у).
(2.2.9) I Рассмотрим систему стимулирования с у к {х, Z) = ^ (дг)' z =X, x , z e B .
(2.2.10) # Видно, что система стимулирования (2.2.10) в рамках гипотезы благожелательности (при прочих равных агент выберет действия, наиболее благоприятные с точки зрения центра) побуждает агента выбрать действия, приводящие к «плановому результату» х е В, причем затраты центра на стимулирование при этом минимальны.
I
[стр. 230]

230 компенсации затрат» [164].
Он справедлив для рассматриваемой модели и в случае многокритериального стимулирования.
Следовательно, параметрическим (с параметром x Î A) решением задачи (5) является следующая система стимулирования (6) sK(x, y) = î í ì ¹ =+ xy xyxc ,0 ,)( d , которая называется компенсаторной (K-типа).
Величина d, фигурирующая в оптимальной системе стимулирования, получила название мотивационной надбавки [163].
Оптимальное реализуемое действие может быть найдено из решения следующей стандартной оптимизационной задачи (7) y* = arg AxÎ max [H(x) – c(x)].
Утверждение 5.1.
При n = 1, k ³ 2 и отсутствии агрегирования, система стимулирования (6), (7) d-оптимальна.
Отметим, что компенсаторная система стимулирования (6) не является единственной оптимальной системой стимулирования – легко показать, что в рамках гипотезы благожелательности решением задачи (5) является любая система стимулирования s ( (×), удовлетворяющая следующим условиям: s ( (y* ) = c(y* ), " y ¹ y* s ( (y) £ c(y).
Существенным «плюсом» компенсаторных систем стимулирования является их простота и высокая эффективность, существенным «минусом» – абсолютная неустойчивость относительно возможных возмущений параметров модели [56, 162].
Действительно, если центр неточно знает функцию затрат агента, то сколь угодно малая неточность может приводить к значительным изменениям реализуемых действий.
Вопросы адекватности моделей стимулирования, устойчивости оптимальных решений и т.д.
подробно исследовались в
[56, 162].
Предложенная в упомянутых работах техника анализа и методы повышения гарантированной (в рамках имеющейся у центра информации) эффективности стимулирования могут быть непосредственно использованы и для моделей, рассматриваемых ниже, поэтому проблемы адекватности и устойчивости в настоящей работе не исследуются.


[стр.,231]

231 Выше мы рассматривали случай отсутствия агрегирования информации.
Теперь предположим, что агрегирование информации имеет место, то есть доход центра h(z) зависит от наблюдаемого им результата деятельности агента z =
Q(y) Î B Í Â m , причем m £ k, где Q(×): A ® B – однозначное непрерывное отображение, такое, что U Ay yQ Î )( = B.
Отметим, что при этом предполагается, что оператор агрегирования и функция затрат агента центру известны, а действия не наблюдаются.
Фиксируем произвольный результат деятельности агента z
Î B и вычислим, во-первых, множество его действий, приводящих к данному результату: (8) Y(z) = {y Î A Q(y) = z}, и, во-вторых, минимальные затраты агента по достижению данного результата: (9) C(z) = )( min zYyÎ c(y).
Рассмотрим систему стимулирования (10) sK(x, z) = î í ì ¹ = xz xzxC ,0 ,)( , x, z Î B.
Видно, что система стимулирования (10) в рамках гипотезы благожелательности (при прочих равных агент выберет действия, наиболее благоприятные с точки зрения центра) побуждает агента выбрать действия, приводящие к «плановому результату» x Î B, причем затраты центра на стимулирование при этом минимальны.
Оптимальный реализуемый результат деятельности может быть найден из решения следующей стандартной оптимизационной задачи (11) z* = arg BxÎ max [h(x) – C(x)].
Утверждение 5.2.
При n = 1, k ³ 2 и наличии агрегирования в рамках гипотезы благожелательности система стимулирования (10), (11) оптимальна.
Таким образом, в настоящем подразделе получено решение задачи синтеза оптимальной многокритериальной системы стимулирования в одноэлементной ОС как для случая отсутствия агреги

[Back]