Aquí es un intento de respuesta. Alguna sugerencia sobre cómo mejorar son bienvenidos, así como cualquier comentario sobre las fallas en el argumento.
Vamos a formalizar su configuración un poco. Supongamos que
- $I$ es el conjunto de los participantes.
- El tiempo acelerado de la que ningún agente olas tan duro como ella puede se $0<t_j \sim f_j(t_j)$ donde $f_j(t_j)$ es alguna función de densidad.
- El factor de la desventaja de agente de $i$ es $h_i^{-1}$ ($h_i$ es un escalar) por lo que, dada su discapacidad, el tiempo acelerado de un competidor a caballo tan duro como ella puede se $h_j^{-1}t_j$.
- Cada agente tiene una distribución previa en el tiempo acelerado de otros $p_j(t_i)$ que es la mejor información de la $j$ $i$'s de carreras de habilidades si $i$ fue a montar tan duro como pueda.
Así que el agente de $j$'s de la estrategia consiste en la elección de un nivel de esfuerzo y en proporcionar una lista de las apuestas de $b_{j1},\dots,b_{j-1},b_{j+1},\dots,$ especificando su tiempo de espera para todos los otros de la competencia.
(Esto sólo permiten a las personas a revelar parte de su información en otras carreras de la distribución del tiempo. Usted puede obtener mejores predicciones a partir de un mecanismo que permite a los agentes para revelar su función de distribución, así que tal vez este no satisfacer su demanda que "cada competidor es incentivados para proporcionar la más precisa información posible". También no satisfacer su petición de que la gente sea capaz de dar información acerca de sus propias habilidades.)
Deje que cada participante paga una cuota de participación, decir $10 \$$.
Este es un mecanismo cuestión de diseño, y como cada mecanismo problema de diseño, que depende mucho del concepto de solución esté preparado para respaldar y en la especificación de las funciones de utilidad. Una posibilidad es:
Función de utilidad : los agentes sólo se preocupan por su espera pay-off -- aquí el dinero que iba a salir del juego -- y no los compare con su pay-off para el pay-offs de los demás. Suponga que no hay ningún costo para el esfuerzo, que es que la gente va a viajar tan duro como pueden, si se produce un mayor (monetaria) pay-off. Suponga también que las personas están en riesgo neutral. Esto significa que, si
- $j$ fue para apostar en $i$,
- $i$ era de raza tan duro como pueda,
- y $j$'s de la recompensa fue mayor el más preciso de su apuesta,
a continuación, $j$ maximizar su previo espera que pagar por de apuestas $E_{t_i \sim p_j(t_i)} (t_i)$.
Concepto de solución : supongamos que juegan las personas de acuerdo a algunos subgame perfecto equilibrio de Nash. En esta configuración, se significa que en la segunda etapa del juego (de la carrera) y los agentes de jugar su mejor estrategia para esta segunda etapa única (la estrategia que maximice el adicional de remuneración que obtienen de esta parte del juego). A continuación, en la primera etapa del juego (el de apuestas etapa) juegan su mejor estrategia , dado que saben que se juegan su mejor estrategia en la segunda etapa.
(formalmente un subgame-perfecto equilibrio de Nash sólo requiere que tanto los subjuegos ser los equilibrios de Nash, pero aquí esto implica jugar una estrategia dominante en ambos subgame por lo que simplemente podemos hablar de jugador como jugar a sus mejores estrategias. Para ser totalmente riguroso, una realidad debería considerar Bayesiano subgame perfecto equilibrio de Nash debido a la distribución de los tipos, pero basta de tecnicismos.)
Dada la especificación de la función de utilidad, una manera de asegurarse de que los competidores viaje tan duro como pueden es condición de su premio de dinero en su tiempo $t_j$, y el dinero que reciben de las apuestas en el tiempo de los demás sólo $t_{-j}$.
Por ejemplo, mantener la mitad de las cuotas de participación, decir $R$ para los premios de la carrera y le dan a la gente una fracción de $R$ que es monótonamente creciente en su $t_j$. Un ejemplo sería el de dar a todo el mundo $\frac{t_j}{\sum_{i\in I} t_i} R$.
Con la otra mitad $R$, recompensar a la gente de las apuestas sobre los demás en una forma que es monótonamente creciente con la precisión de la apuesta. Por ejemplo, usted podría suma de los agentes de predicción de precisión $\pi^j = \sum_{i\neq j \in I} |t_i - b_{ji}|$ y dar a los agentes $\frac{\bar{\pi} - \pi^j}{\bar{\pi}} R$ donde $\bar{\pi}$ es el promedio de precisión $\sum_{i\in I} \pi^i$ (suponiendo que $\bar{\pi} \neq 0$).
Observe que, dado el premio de dinero y la estructura de apuestas, y dar a la función de utilidad de los agentes, en un equilibrio de cada agente de la carrera tan duro como pueda en la segunda etapa. Debido a que los agentes no pueden apostar en sí mismos, ellos no tienen nada que perder de las carreras más duras y una estrategia de perfil no puede ser un equilibrio (subgame perfecto de Nash) si ellos no lo hacen.
Ahora en el de apuestas etapa, dado que los agentes de la carrera tan rápido como pueden, la gente lo mejor que puede hacer es apostar con la verdad de acuerdo a sus prioridades, es decir, apostar a $E_{t_i \sim p_j(t_i)} (t_i)$.
Para cada agente de la raza tan duro como sea posible y apuesta verdaderamente es así, la única estrategia perfil que cumplen con el concepto de solución y se puede afirmar que esta estructura de juego implementa sus pedidos (veraz de la revelación y del esfuerzo máximo) en subgame perfecto equilibrio de Nash.
A partir de aquí, usted necesita un poco más de trabajo y supuestos para establecer las desventajas a nivel de derecho con el fin de cumplir su tercera petición que el resultado esperado de la carrera, estar tan cerca como puede ser la de una corbata. Pero se ve que la elección de la minusvalía perfil no tiene impacto en el nivel de esfuerzo o de la revelación, porque la gente de esfuerzo y la precisión de la predicción son recompensados basado en el perfil de tiempo $t_i$ e no $\frac{t_i}{h_i}$.
Editar siguiente pregunta de la OP
Puede haber formas para permitir la auto-estimación. Si se va a obtener nada de apuestas en sí mismo, se ve que usted no tendría ningún incentivo para mentir, pero no estricta incentivo para reportar su verdadero conocimiento de sus propias capacidades. Así que si quieres tales estricto de incentivos, debe ser el caso que lo que puede ganar nunca de mentir nunca supera lo que puede ganar más difícil de ejecutar. He aquí una idea de cómo hacerlo. Es imperfecta, y no son directamente compatibles con el ex mecanismo y suposiciones, pero podría darte algunas ideas.
Supongamos que sabemos con certeza es un tiempo máximo de $\bar{t}$ que es estrictamente imposible que alguien olas de más de $\tilde{t}$, o tal vez alguien a caballo en más de $\tilde{t}$ obtiene descalifica y pierde todo su dinero. Se supone que hay un conjunto finito de posibles apuestas $[\tilde{t},b_1,b_2,\dots,b_M]$. Los agentes no saben acerca de la función de densidad de este tiempo. Sólo ellos saben la apuesta más alta del intervalo en el que son capaces de carrera, que es que no sé que $t_j \ in [b_s, b_{s+1}]$. Este evento ($t_j \ in [b_s, b_{s+1}]$) no sucede con cierta probabilidad más. Ahora se puede si se deciden a hacer seguro de que $t_j \ in [b_s, b_{s+1}]$. El próximo construcciones de la remuneración de las funciones de la siguiente manera:
- Si $j$ apuestas $b_j = \tilde{t}$ y su actual tiempo $t_j \in [\tilde{t};b_1)$ ella se $a$ donde $a > 0$. De lo contrario, se pone a cero.
- Establecer la recompensa de montar a caballo en $t_j = [\tilde{t};b_1)$, al decir $a$.
- Ahora vamos a la recompensa para la conducción de $t_i \in [b_1;b_2)$$b > 2a$. Ver que si $j$ es capaz de correr más rápido que el de $b_1$, a ella nunca se le desea no sólo para obtener una mejor recompensa de su apuesta. De hecho, la mejor recompensa que obtendría nunca iba a compensar lo que ella podría haber conseguido por las carreras de más rápido que $b_1$.
- También, que la recompensa de apuestas $b_j = b_1$ al $t_i \in [b_1;b_2)$ debe de decir $b$.
Ahora usted puede mantener en esta construcción para todos los posibles valores de apuestas. Usted ve que la construcción de la estructura de la rentabilidad de esta manera se asegura que correr tan rápido como puedas es ideal (hasta el intervalo de aproximación) porque por carreras más lento no será rentable. A medida que los competidores de la carrera tan rápido como pueden, que tienen también un interés de apuestas derecho.
Usted ve que esto es una consecuencia de la necesidad de renunciar a la estructura probabilística del enfoque anterior. No es sencillo ser no cómo conciliar ambas enfoque. Podría ser posible, aunque. En cualquier caso, espero que este ejemplo simplificado da una idea de dónde buscar, y el tipo de propiedades de un mecanismo que debe cumplir para permitir la auto-estimaciones.