Механизмы стимулирования за индивидуальные результаты

В предыдущих разделах рассматривались системы индивидуального стимулирования. Настоящий и последующие разделы данной главы посвящены описанию моделей коллективного стимулирования, то есть стимулирования коллектива агентов.

Простейшим обобщением базовой одноэлементной модели является многоэлементная ОС с независимыми (невзаимодействующими) агентами.

В этом случае задача стимулирования распадается на набор одноэлементных задач.

Если ввести общие для всех или ряда агентов ограничения на механизм стимулирования, то получается задача стимулирования в ОС со слабо связанными агентами (см. ниже), представляющая собой набор параметрических одноэлементных задач, для которого проблема поиска оптимальных значений параметров решается стандартными методами условной оптимизации.

Если агенты взаимосвязаны (в настоящей работе не рассматривается ситуация, когда существуют общие ограничения на множества допустимых состояний, планов, действий агентов - этот случай подробно описан в [29]), то есть затраты или/и стимулирование агента зависят, помимо его собственных действий, от действий других агентов, то получается «полноценная» многоэлементная модель стимулирования, описываемая в настоящем разделе.

Последовательность решения многоэлементных и одноэлементных задач имеет много общего. Сначала необходимо построить компенсаторную систему стимулирования, реализующую некоторое (произвольное или допустимое при заданных ограничениях) действие (первый этап - этап анализа согласованности стимулирования). В одноэлементных ОС в рамках гипотезы благожелательности для этого достаточно проверить, что при этом максимум целевой функции агента будет достигаться, в том числе и на реализуемом действии. В многоэлементных ОС достаточно показать, что выбор соответствующего действия является равновесной стратегией в игре агентов. Если равновесий несколько, то необходимо проверить выполнение для рассматриваемого действия дополнительной гипотезы о рациональном выборе агентов. В большинстве случаев достаточным оказывается введение аксиомы единогласия (агенты не будут выбирать равновесия, доминируемые по Парето другими равновесиями), иногда центру приходится вычислять гарантированный результат по множеству равновесных стратегий агентов и т. д. Далее следует приравнять стимулирование затратам и решить стандартную оптимизационную задачу - какое из реализуемых действий следует реализовывать центру (второй этап - этап согласованного планирования - см. также раздел 2.1). Конкретизируем этот общий подход.

Стимулирование в ОС со слабо связанными агентами. Описанные в разделе 2.1 результаты решения задачи стимулирования могут быть непосредственно обобщены на случай, когда имеются п > 2 агентов, функции затрат которых зависят только от их собственных действий (так называемые сепарабельные затраты), стимулирование каждого агента зависит только от его собственных действий, но существуют ограничения на суммарное стимулирование агентов. Такая модель называется ОС со слабо связанными агентами и является промежуточной между системами индивидуального и коллективного стимулирования.

Пусть N = {1, 2, ..., п} - множество агентов, уг е Лг - действие г-го агента, сг (у) - затраты г-го агента, ог (уг) - стимулирование его со стороны центра, г е N, у = (у1, у2, уп) - вектор действий агентов, у е Л’ = ^Лг. Предположим, что

iеN

центр получает доход Н(у) от деятельности агентов.

Пусть размеры индивидуальных вознаграждений агентов ограничены величинами {R.}. е N, то есть V y. е A. Gi (yi) < Ri, i e N. Если фонд заработной платы (ФЗП) ограничен величиной R, то есть ^ R. < R, то получаем (см. раздел

ieN

2.1), что максимальное множество реализуемых действий для i-го агента зависит от соответствующего ограничения механизма стимулирования и в рамках предположений раздела 2Л равно р (R) = [0, У. (R)], где

y+ (R. ) = max {y. в А. | с.(у) < R}, i е N.

Тогда оптимальное решение задачи стимулирования в ОС со слабо связанными агентами определяется следующим образом: максимизировать выбором индивидуальных ограничений {R.} е n, удовлетворяющих бюджетному ограничению ^ R. < R, следующее выражение:

ieN

F(R) = { Ж H(Уl, ...,у«),

{ yi ePi (Ri )}ieN

что является стандартной задачей условной оптимизации.

Отметим, что когда ФЗП фиксирован, затраты центра на стимулирование не вычитаются из его дохода. Если ФЗП является переменной величиной, то его оптимальное значение R может быть найдено как решение следующей задачи: R* = arg max ^(R) - R].

R>0

Отметим, что во многих важных с практической точки зрения случаях величина ФЗП (или фонда материального поощрения, премиального фонда и т.п.) зависит от действий агентов, то есть достигнутых ими результатов - см. главы 4-8 настоящей работы. При этом можно либо в явном виде учитывать зависимость R = R(y), что приведет к существенному усложнению соответствующих оптимизационных задач, либо применять подход, описанный выше - искать оптимальное решение в параметрическом виде (где ФЗП является параметром), а потом определять оптимальное значение ФЗП.

Пример 2.1. Пусть функции затрат агентов - С (у) = У12 /2гг, г е N а функция дохода центра - Н(у) = 1агуг , где {а.}. е N - положительные константы.

При заданных ограничениях {Дг}г е N максимальное реализуемое действие каждого агента: у+ (Д.) = -\j2rR , г е N. Задача свелась к определению оптимального набора ограничений { Д*}г е N, удовлетворяющего бюджетному ограничению и максимизирующего целевую функцию центра:

® шах

г?еN {Д^0Ье*

I Д

г'еN

Решение этой задачи, полученное с применением метода множителей Лагранжа, имеет вид:

га2

Д* = * г 2 Д, г в N.

плачиваемым агентам, где аг (у) - стимулирование г-го агента, а (у) = (о1(у), 02(у), Оп(у))'.

Ф(ау) = Н(у) - ?а-(y), (1)

г =1

Целевая функция г-го агента/ (аг, у) представляет собой разность между стимулированием, получаемым от центра, и затратами сг (у), то есть:

/г (аг, у) = а (у) - Сг (у), г е N. (2)

Отметим, что и индивидуальное вознаграждение, и индивидуальные затраты г-го агента по выбору действия уг в общем случае зависят от действий всех агентов (случай сильно связанных агентов с несепарабельными затратами).

Примем следующий порядок функционирования ОС. Центру и агентам на момент принятия решения о выбираемых стратегиях (соответственно функциях стимулирования и действиях) известны целевые функции и допустимые множества всех участников ОС. Центр, обладая правом первого хода, выбирает функции стимулирования и сообщает их агентам, после чего агенты при известных функциях стимулирования одновременно и независимо выбирают действия, максимизирующие их целевые функции.

Относительно параметров ОС введем следующие предположения: 1)

множество допустимых действий каждого агента совпадает с множеством неотрицательных действительных чисел; 2)

функции затрат агентов непрерывны, неотрицательны и

" уг е Лг сг (у) не убывает по уг, г е N " у-г е Л-г сг (0, у-г) = 0; 3)

функция дохода центра непрерывна и достигает максимума при ненулевых действиях агентов.

Второе предположение означает, что независимо от действий других агентов любой агент может минимизировать свои затраты выбором нулевого действия. Остальные предположения - такие же, как и в одноэлементной модели (см. раздел 2.1).

Так как и затраты, и стимулирование каждого агента в рассматриваемой модели зависят в общем случае от действий всех агентов, то агенты оказываются вовлеченными в игру, в которой выигрыш каждого зависит от действий всех. Обозначим P(g) - множество равновесных при системе стимулирования G стратегий агентов - множество решений игры (тип равновесия пока не оговаривается; единственно предположим, что агенты выбирают свои стратегии одновременно и независимо друг от друга, не имея возможности обмениваться дополнительной информацией и полезностью).

Как и в одноэлементной ОС, рассмотренной в разделе 2.1, в рамках гипотезы благожелательности эффективностью стимулирования является максимальное значение целевой функции центра на соответствующем множестве решений игры:

K(G) = max F(G, y). (3)

yeP (g)

Задача синтеза оптимальной функции стимулирования заключается в поиске такой допустимой системы стимулирования G , которая имеет максимальную эффективность:

*

G = arg max K(G). (4)

GeM

Из результатов раздела 2.1 следует, что в частном случае, когда агенты независимы (вознаграждение и затраты каждого из них зависят только от его собственных действий), то оптимальной (точнее - 5-оптимальной, где 5 = ^5, ) является ком-

ieN

пенсаторная система стимулирования:

f c, (х,) + 5,, y. = х.

G,K(х,,у.)Ч0 * , i е N, (5)

I0, У, * х,

где {5г-}г е N - сколь угодно малые строго положительные константы (мотивирующие надбавки), а оптимальное действие х , реализуемое системой стимулирования (5) как равновесие в доминантных стратегиях13 (РДС), является решением следующей задачи оптимального согласованного планирования:

/ = arg max {H(y) - ? С (У ) }-

Если стимулирование каждого агента зависит от действий всех агентов (рассматриваемый в настоящем разделе случай коллективного стимулирования) и затраты несепарабельны (то есть затраты каждого агента зависят в общем случае от действий всех агентов, что отражает взаимосвязь и взаимозависимость агентов), то множества равновесий Нэша14 EN(о) е A’ и РДСyd е A’ имеют вид:

EN (о) = {/ е A’ | " i е N " yi е Ai (6)

о y) - ci (yN) > о y yN) - ciy y-i)};

yid е Ai - доминантная стратегия i-го агента, тогда и только тогда, когда

"у е Д "У-i е A- О ( yd , y-i) - Ci ( yid , у-) > о y У-i) - Ci fyh y_i).

Если при заданной системе стимулирования у всех агентов имеется доминантная стратегия, то говорят, что данная система стимулирования реализует соответствующий вектор действий как РДС.

Фиксируем произвольный вектор х е А' действий агентов и рассмотрим следующую систему стимулирования:

Гс (х., у г) + 8., у. = х.

а (х, у) = у-'} г’Л г, 8 > 0, г е N. (7)

[ 0 у г * X

В [29] доказано, что при использовании центром системы стимулирования (7) х - РДС.

Более того, если 8 > 0, г е N, то х - единственное РДС.

Содержательно при использовании системы стимулирования (7) центр использует следующий принцип декомпозиции. Он предлагает г-му агенту: «выбирай действие хг, а я компенсирую тебе затраты независимо от того, какие действия выбрали остальные агенты, если же ты выберешь любое другое действие, то вознаграждение будет равно нулю». Используя такую стратегию, центр декомпозирует игру агентов.

Если стимулирование каждого агента должно зависеть только от его собственного действия, то, фиксировав для каждого агента обстановку игры, перейдем от (7) к системе индивидуального стимулирования следующим образом: фиксируем произвольный вектор действий агентов х е А' и определим систему стимулирования:

Гс (х., х г) + 8., у. = х.

а (х,у) = Г" г -г' г’Л г, 8 > 0, г е N. (8)

I0, у г * хг

Содержательно при использовании системы стимулирования (8) центр предлагает г-му агенту: «выбирай действие хг, а я компенсирую тебе затраты, считая, что остальные агенты также выбрали соответствующие компоненты - х_г, если же ты выберешь любое другое действие, то вознаграждение будет равно нулю». Используя такую стратегию, центр также декомпозирует игру агентов, то есть реализует вектор х как равновесие Нэша игры агентов.

Отметим, что функция стимулирования (8) зависит только от действия г-го агента, а величина х-г входит в нее как параметр. Кроме того, при использовании центром системы стимулирования (8), в отличие от (7), каждый из агентов имеет косвенную информацию обо всех компонентах того вектора действий, который хочет реализовать центр. Для того чтобы система стимулирования (8) реализовывала вектор х как РДС, необходимо введение дополнительных (по сравнению со случаем использования (7)) предположений относительно функций затрат агентов - (см. [29]).

Здесь же уместно качественно пояснить необходимость введения неотрицательных констант {5г-}г- е N в выражениях (5), (7) и (8). Если требуется реализовать некоторое действие как одно из равновесий Нэша, то эти константы могут быть выбраны равными нулю. Если требуется, чтобы равновесие было единственным (в частности, чтобы агенты не выбирали нулевые действия), то агентам следует доплатить сколь угодно малую, но строго положительную величину за выбор именно того действия, которое предлагается центром. Более того, величины {?i}i е N в выражениях (5), (7) и (8) играют важную роль и с точки зрения устойчивости компенсаторной системы стимулирования по параметрам модели. Например, если функция затрат i-го агента известна с точностью до ?i /2, то компенсаторная система стимулирования (7) все равно реализует действие х (см. [6, 22]).

T'I u u *

Вектор оптимальных реализуемых действий агентов х , фигурирующий в качестве параметра в выражении (7) или (8), определяется в результате решения следующей задачи оптимального согласованного планирования:

/ = arg mах {H(y) - ? ct (y) } (9)

y^?

ieN

а эффективность системы стимулирования (7), (9) равна следующей величине:

4 = Н(х*) - ? Cj (х*) - ?.

ieN

В [29] доказано, что система стимулирования (7), (9) является оптимальной, то есть обладает максимальной эффективностью, среди всех систем стимулирования в многоэлементных ОС.

Рассмотрим несколько примеров решения задач синтеза оптимальных систем коллективного стимулирования в многоэлементных ОС.

Пример 2.2. Решим задачу стимулирования в ОС с двумя агентами, имеющими функции затрат:

С (у) = (Уі + 1уз-) , І = і, 2, где I - параметр, отражающий 2гі

степень взаимозависимости агентов. Пусть функция дохода центра Н(у) = у1 + у2, а фонд заработной платы ограничен величиной Я. Если центр использует систему стимулирования (7), то задача стимулирования сводится к поиску оптимальных реализуемых действий:

Н ( у) ® тах

Применяя метод множителей Лагранжа, получаем, что решение имеет вид:

Подставляя равновесные действия агентов в целевую функцию центра, получаем, что оптимальный размер ФЗП равен: *

Я = аг§ тах

Я>0

[л/2Я(Гі+ Г2) /(і - І) - Я] = 2^. • Пример 2.3. Вторым примером является модель совместного производства. Рассмотрим многоэлементную двух - уровневую ОС, состоящую из центра и п агентов.

Пусть целевая функция /-го агента / (у, г) представляет собой разность между доходом кг- (у) от совместной деятельно-

сти и затратами с, (у, г) где г, - даии агента (параметр эффективности его деятельности), то есть

? (у, г,) = И, (у) - с, (у, г,), I е N.

Выберем следующий вид функций дохода и затрат:

где У = ? У, - ? Р; =1

Для случая, когда в знаменателе стоит знак «-», предполагается, что -.

Содержательно набор агентов может интерпретироваться как фирма, подразделения которой (агенты) производят однородную продукцию, реализуемую на рынке по цене в. Суммарный доход в У распределяется между агентами в соответствии с фиксированными долями {р,}, еN. Затраты агента возрастают по его действиям, а эффективность деятельности определяется типом агента г;.

Взаимодействие агентов моделируется зависимостью затрат (эффективности деятельности) каждого из них от действий всех (других) агентов.

Знак «+» в знаменателе соответствует эффективному взаимодействию агентов (убыванию затрат на масштаб) - чем большие действия выбирают другие агенты, тем меньше затраты (выше эффективность деятельности) рассматриваемого агента, что на практике может соответствовать снижению удельных постоянных издержек, обмену опытом, технологиями и т. д.

Знак «-» в знаменателе соответствует неэффективному взаимодействию агентов (возрастанию затрат на масштаб) - чем большие действия выбирают другие агенты, тем больше затраты (ниже эффективность деятельности) рассматриваемого агента, что на практике может соответствовать нехватке основных фондов, ограничениям на побочные показатели (например, загрязнение окружающей среды) и т. д.

Коэффициенты {/, > 0}; е д отражают степень взаимозависимости агентов.

Пусть рыночная цена в известна всем участникам ОС. Тогда, дифференцируя целевые функции агентов, приравнивая производные нулю и складывая получившиеся при этом выражения

У; = р в (г ± У у] ), г е д

3 *г

получим следующую зависимость суммарных действий Г+ от параметра в:

у Р, в Г 7+(в) = ,ед 1 ± р ,в/, •

1 т УЛ^

| ± р,в/,

Пример 2.4. Третьим примером является аккордная система оплаты труда. Рассмотрим ОС с двумя агентами,

имеющими функции затрат с, (у,) = у, / 2г,, где г, - тип ,-го агента, у, е А, = , = 1, 2. Целевая функция ,-го агента представляет собой разность между стимулированием о, (у1, у2), получаемым от центра, и затратами, то есть:

/, (у) = О (у) - с, (у,), I = 1, 2.

Пусть центр использует систему стимулирования

[С,, у + у2 > н

о (уь у2) = \ 0 , I = 1, 2. (10)

[0, у 1 + у2 < н

Содержательно центр выплачивает каждому агенту фиксированное вознаграждение при условии, что сумма их действий оказывается не меньше, чем некоторое плановое значение н > 0. Обозначим:

у+ = РГгСг , , = 1, 2, ? = {(уЬ у2) | у, < у+ , 1 = 1, 2, у1 + у2 < н} -

множество индивидуально-рациональных действий агентов. Рассмотрим четыре возможных комбинации переменных (см. рис. 2.9-2.12).

В первом случае (рис. 2.9) множество равновесий Нэша составляет отрезок: Ем (с) = [М; М2]. Фиксируем произвольное равновесие у = (у*, у*) е Ем(с). Наличие «большого» равновесия Нэша (отрезка, содержащего континуум точек) имеет несколько минусов с точки зрения эффективности стимулирования. Поясним это утверждение.

Так как все точки отрезка [М1; М2] эффективны по Парето с точки зрения агентов, то целесообразно доплачивать агентам за выбор конкретных действий из этого отрезка малую, но строго положительную величину.

Построим систему индивидуального стимулирования в соответствии с результатами, приведенными выше (см. (8) и (9)):

<~1*(У1) = ъ&ь у*) = Ь у ~ У\, (11)

I о, У1 < у*

<~2 Ы = 02(У*, У2) = Г2’ 372 > У2 .

I О, У2 < У2

При использовании этой системы стимулирования точка у = (у*, у2) оказывается единственным равновесием Нэша, то есть, переходя от системы стимулирования (10) каждого агента, зависящей от действий всех агентов, к системе стимулирования (11), зависящей только от действий данного агента, центр декомпозирует игру агентов, реализуя при этом единственное действие. При этом эффективность стимулирования, очевидно, не только не понижается, а может оказаться более высокой, чем при использовании исходной системы стимулирования.

Рис. 2.10

Во втором и третьем случаях равновесием Нэша являются отрезки [N1 N2], изображенные на рис. 2.10 и 2.11 соответственно.

И наконец, в четвертом случае (рис. 2.12) множество равновесий Нэша состоит из точки (0; 0) и отрезка [N1; N2], то есть Ем(а) = (0; 0) и [М; N2], причем точки интервала (N1; N2) недоминируемы по Парето другими равновесиями.

Пусть в условиях рассматриваемого примера функции затрат агентов несепарабельны и имеют вид:

(У + 1Уъ-г )2

сг (У)

2гг

Определим множество У индивидуально-рациональных действий агентов: У = {(уь у2) | сг (у) < Сг, г = 1, 2}. Для того чтобы не рассматривать все возможные комбинации значений параметров {г1; г2, С1, С2, н}, возьмем случай, представленный на рис. 2.13.

Рис. 2.13. Множество равновесий Нэша [N1; N2] в случае несепарабельных затрат

В рассматриваемом случае множество равновесий Нэша включает отрезок [N1; N2]. Система стимулирования

(12)

~*у _ 1сь(УьУ2Х Уь = У*

1 10, Уь * у*

~*(у) _ /с2(Уь,У*), У2 = У* ] 0, *

У2 * У2

*

реализует действие У е [N1; ^] как равновесие в доминантных стратегиях. •

Завершив рассмотрение механизмов стимулирования за индивидуальные результаты деятельности агентов, перейдем к описанию механизмов стимулирования за результаты совместной деятельности. 2.4.

<< | >>
Источник: Васильева О.Н., Засканов В.В., Иванов Д.Ю., Новиков Д.А.. Модели и методы материального стимулирования (теория и практика) / Под ред. проф. В.Г. Засканова и проф. Д.А. Новикова. - М.: ЛЕНАНД. - 288 с.. 2007

Еще по теме Механизмы стимулирования за индивидуальные результаты:

  1. Проектирование механизмов индивидуального материального стимулирования
  2. Разработка методов индивидуального материального стимулирования работников здравоохранения
  3. Механизмы унифицированного стимулирования
  4. Базовые механизмы стимулирования
  5. Механизмы стимулирования нескольких агентов
  6. 5.4. Проектирование механизмов коллективного материального стимулирования
  7. МОДЕЛИ СОГЛАСОВАННЫХ МЕХАНИЗМОВ МАТЕРИАЛЬНОГО СТИМУЛИРОВАНИЯ В СБОРОЧНЫХ ПРОИЗВОДСТВАХ ПРЕДПРИЯТИЙ АВТОМОБИЛЕСТРОЕНИЯ
  8. § 3. Индивидуальный договор в механизме правового регулирования
  9. ГЛАВА 5. БАЗОВЫЕ МОДЕЛИ ВНУТРИПРОИЗВОДСТВЕННЫХ МЕХАНИЗМОВ МАТЕРИАЛЬНОГО СТИМУЛИРОВАНИЯ НА АВИАСТРОИТЕЛЬНЫХ ПРЕДПРИЯТИЯХ
  10. «Индивидуальный пошив» как гарантия высоких результатов
  11. Разработка моделей согласованных механизмов материального стимулирования рабочих сборочноконвейерного производства
  12. Изменение оплаты труда и стимулирование персонала, основанные на результатах работы
  13. Интерпретация результатов оценки мотивации сотрудника и формирование индивидуальной мотивационной системы
  14. МЕХАНИЗМЫ СТИМУЛИРОВАНИЯ РАБОТНИКОВ ЗДРАВООХРАНЕНИЯ В УСЛОВИЯХ ОРГАНИЗАЦИИ ПЛАТНЫХ МЕДИЦИНСКИХ УСЛУГ
  15. Разработка базовых многопараметрических моделей анализа и синтеза механизмов материального стимулирования на предприятиях авиастроения
  16. Понятия «человек», «личность», «индивидуальность». Условия и механизмы формирования личности
- Cвязи с общественностью - PR - Бренд-маркетинг - Деловая коммуникация - Деловое общение и этикет - Делопроизводство - Интернет - маркетинг - Информационные технологии - Консалтинг - Контроллинг - Корпоративное управление - Культура организации - Лидерство - Литература по маркетингу - Логистика - Маркетинг в бизнесе - Маркетинг в отраслях - Маркетинг на предприятии - Маркетинговые коммуникации - Международный маркетинг - Менеджмент - Менеджмент организации - Менеджмент руководителей - Моделирование бизнес-процессов - Мотивация - Организационное поведение - Основы маркетинга - Производственный менеджмент - Реклама - Сбалансированная система показателей - Сетевой маркетинг - Стратегический менеджмент - Тайм-менеджмент - Телекоммуникации - Теория организации - Товароведение и экспертиза товаров - Управление бизнес-процессами - Управление знаниями - Управление инновационными проектами - Управление качеством товара - Управление персоналом - Управление продажами - Управление проектами - Управленческие решения -