6 votos

Cómo optimizar las preguntas de valor de compra en cascada

Imagina que tengo un artículo que quiero vender a una persona. Sé con seguridad que la persona no está dispuesta a pagar más de Xforthisitem,butIdontknowwhichvaluebetween 0 y \$X ellos son dispuestos a pagar por ello, y tengo la misma incertidumbre sobre todos ellos. Así que si llamo a cuánto están dispuestos a pagar por él V, p(V) es una distribución uniforme entre 0 y X.

Sin embargo, no puedo preguntarles directamente. Lo que sí puedo hacer es preguntar si están dispuestos a pagar algún valor Yfortheitem.Iftheyare,thenIget Y y vender el artículo. Si no es así, no puedo vender el artículo y no me pagan nada.

Por lo tanto, comprarán el producto si valoran mi artículo en Yormoreandwillnototherwise,andsotheexpectedvalueofaskingfor Y es p(VY)Y . Desde p(V)=1/X es sencillo ver que el valor Y que maximiza esa expectativa es X/2, y el valor real esperado es \$X/4.


Supongamos, sin embargo, que puedo pedirle a esta persona dos veces en lugar de una sola vez. Es decir, puedo preguntarles si están dispuestos a pagar \N por el artículo. Entonces:

  • Si lo son, recibo $Y y vendo el artículo.
  • Si no lo son, puedo volver a pedir un valor diferente X,andtheneitherIselltheitemfor X o no lo hago y no consigo nada.

Una solución inicial e ingenua sería simplemente iterar la sugerencia anterior: primero pido X/2andthen,ifImrefused,Iupdatemyprobabilitydistributionandaskfor X/4. El valor esperado de esa estrategia es 5X/16(50 X/2, entonces un 50% de posibilidades de que haya un 50% de posibilidades de que obtenga X/4,andthenintheremainingcaseIget 0).

Sin embargo, esa no es la estrategia óptima. Supongamos, en cambio, que decido pedir 2X/3andthenfor X/3. Hay un 1/3 de posibilidades de que me acepten la primera solicitud y un 2/3 de posibilidades de que no lo hagan; después, hay un 50% de posibilidades de que me acepten la segundo y un 50% de posibilidades de que no lo hagan. El valor final esperado de esa estrategia es X/3,whichisgreaterthanthe 5X/16 de la idea anterior.

¿Cómo iba a saber esto de antemano? Y si se me permite hacer N preguntas, ¿es siempre mejor pedir (N1)X/Nandthen (N - 2)X/N y así sucesivamente hasta llegar a \$X/N?


Ahora, supongamos que tengo M personas diferentes que podrían estar dispuestas a comprar mi artículo. Tengo una distribución conjunta a priori sobre el valor de mi artículo. Puedo pedir un total de N preguntas entre todos ellos y, dado que mis creencias sobre cuánto valoran este artículo están correlacionadas, cada vez que uno de ellos rechaza el artículo esto es también información sobre cuánto lo valoran los demás.

¿Cómo puedo resolver este ¿Problema? Si es demasiado abierto, supongamos que lo limito a tener una distribución normal multivariante (con vector de medias y matriz de covarianza conocidos) para mis creencias previas sobre cuánto valoran mi artículo; ¿a dónde voy desde aquí?

3voto

Aaron Puntos 36

Este tipo de problema es un problema de optimización que puede resolverse directamente a partir de la función de beneficio, o en dos pasos utilizando inducción inversa . Para mostrarte cómo utilizar cualquiera de estos métodos, primero escribiré el problema de optimización en una forma matemática útil. A continuación, mostraré la solución por ambos métodos. En este caso particular, la optimización directa es mucho más sencilla, pero si tienes casos más difíciles, el método de inducción hacia atrás puede ser más simple.


El problema de la optimización: Se tiene una variable aleatoria continua VU(0,x) y elegirás dos ofertas y1 y y2 . Su beneficio es la variable aleatoria:

πV(y1,y2)=y1I(y1V)+y2I(y2V<y1).

Su objetivo es elegir una primera y una segunda oferta para maximizar su beneficio esperado, que es el valor esperado de la función anterior.


Optimización directa: Con la optimización directa escribimos el beneficio esperado como una función bivariable de sus dos variables de decisión, y a continuación realizamos la optimización multivariable utilizando técnicas de cálculo estándar. Podemos limitar la atención a los casos 0y2<y1x ya que ambas ofertas deben estar dentro del soporte de V La segunda oferta debe ser más baja que la primera. (La segunda oferta sólo importa si se rechaza la primera, por lo que no tiene sentido hacer una segunda oferta que sea igual o mayor que la primera). Restringiendo la atención a este caso, la función de beneficio esperado puede escribirse como la función bivariante

ˉπ(y1,y2)E(πV(y1,y2))=y1P(y1V)+y2P(y2V<y1)=y1xy1x+y2y1y2x=1x(y1(xy1)+y2(y1y2))=1x(y1xy21+y2y1y22).

El vector gradiente y la matriz hessiana de esta función vienen dados respectivamente por:

ˉπ(y1,y2)=1x[x2y1+y2y12y2]2ˉπ(y1,y2)=1x[2112 ].

Es sencillo demostrar que el hessiano es negativo definido (los valores propios son λ1=3 y λ2=1 ), por lo que la función es estrictamente cóncava. Esto significa que tiene un único punto crítico que es el valor maximizador global de la función. Este punto satisface la condición de primer orden (FOC):

0=ˉπ(ˆy1,ˆy2)=1x[x2ˆy1+ˆy2ˆy12ˆy2].

Resolviendo estas dos ecuaciones en dos incógnitas se obtienen los precios de optimización:

ˆy1=23xˆy2=13x.


Optimización por inducción hacia atrás: Con la inducción hacia atrás empezamos optimizando la decisión posterior, y luego trabajamos hacia atrás para optimizar la decisión anterior, asumiendo la optimización de la decisión posterior. Así, imaginemos que ya se ha hecho una primera oferta de 0y1x y ha sido rechazada, así que ahora va a hacer su segunda oferta. Condicionado al rechazo de la primera oferta, tenemos la distribución posterior V|V<y1U(0,y1) por lo que el beneficio esperado de una nueva oferta de 0y2x es:

ˉπ(y2)=E(πV(y1,y2)|VU(0,y1))=E(y2I(y2V)|VU(0,y1))=y2y1y2y1I(y2<y1)=1y1(y2y1y22)I(y2<y1)

La optimización univariante (omitiendo los pasos de cálculo) da como resultado el valor de optimización:

ˆy2=12y1.

Una vez obtenido este valor de optimización, procedemos a retroceder hasta la primera oferta. Suponiendo que la segunda oferta es óptima, el beneficio esperado en función de la primera oferta y1 es:

ˉπ(y1|ˆy2)=E(πV(y1,ˆy2)|VU(0,x))=E(πV(y1,y1/2)|VU(0,x))=E(y1I(y1V)+y12I(y1/2V<y1)|VU(0,x))=y1P(y1V)+y12P(y1/2V<y1)=y1xy1x+y12y1/2x=1x(xy1y21+y214)=1x(xy13y214).

La optimización univariante (omitiendo los pasos de cálculo) da como resultado el valor de optimización:

ˆy1=23x.

La sustitución de esta oferta óptima por la segunda oferta optimizadora da como resultado:

ˆy2=13x.

Es la misma respuesta que se obtiene mediante la optimización directa.


Los métodos anteriores pueden extenderse fácilmente al caso más general en el que se tienen más de dos oportunidades de ofertas. Al igual que en el caso anterior, el método más sencillo es el método directo, es decir, se forma una función multivariable para el beneficio esperado condicionado a un vector de ofertas y, a continuación, se optimiza esta función utilizando técnicas de cálculo estándar.

3voto

Konstantin Puntos 327

Respuesta corta:

  1. En efecto, cuando un mismo cliente puede ser abordado como máximo n veces, es óptimo comenzar con la oferta y1=n1nx y disminuir el precio en xn con cada negativa.

  2. El resultado anterior sólo es válido para la distribución uniforme de la valoración del cliente v . Bajo la distribución normal, la respuesta de forma cerrada es factible sólo numéricamente.

  3. Cuando n cliente puede ser abordado, cada uno como máximo una vez, el problema de optimización asume una estructura de doble capa: el problema interno de optimización suave está envuelto en la tarea externa de optimización combinatoria. Esto, unido a una estructura de covarianza no trivial en las valoraciones, hace que la solución analítica (y/o manejable) de forma cerrada sea inviable.

  4. Un enfoque prometedor para este último caso sería suponer que las valoraciones v1,...,vn se distribuyen uniformemente en un paralelotopo y aprovechar la cálculo poliédrico métodos para acelerar los cálculos.

Respuesta detallada

  1. Acercarse al mismo cliente como máximo n veces Cuando tratamos con un solo cliente y podemos intentar hasta n veces hasta que se aleja, la solución del problema es directa y y sigue la lógica presentada en la otra respuesta a este post. El beneficio esperado se puede escribir de la siguiente manera:

Eπ=y1P(v>y1)+y2P(v<y1v<y2)+...+ynP(v<yn(n1j=1v<yj))==ni=1yiP(v<yn(i1j=1v<yj))==ni=1yiP(yi<v<yi1)

donde la convención implícita es que y0 es un límite superior del soporte de v para que P(v<y0)=1 .

La solución del problema es, pues, una secuencia y:=(y1,...,yn) maximizando el beneficio esperado. En el caso de la distribución uniforme, vU[0,x] las condiciones de primer orden con respecto a yi representan un sistema de ecuaciones lineales:

yiEπ=0{xy1xy11x+y21x=0yi1yixyi1x+yi+11x=0i=2,..n1yn1ynxyn1x=0

De la segunda igualdad se desprende que existe un incremento δ tal que i=2,..n tiene yi=yi1δ , lo que implica que yi=y1(i1)δ . Esto es consistente con la primera y la última igualdad si δ=xn y y1=n1nx según la intuición descrita en el OP.

Observación:

Una vez que pasamos a una suposición más artificiosa sobre la distribución de la valoración del cliente, la respuesta explícita se vuelve imposible de obtener analíticamente. Por ejemplo, en el caso de una distribución normal truncada en el intervalo [0,x] el sistema de condiciones de primer orden se convierte en

{Φ(x)Φ(y1)Φ(x)1/2y1ϕ(y1)Φ(x)1/2+y2ϕ(y1)Φ(x)1/2=0Φ(yi1)Φ(yi)Φ(x)1/2yiϕ(yi)Φ(x)1/2+yi+1ϕ(yi)Φ(x)1/2=0i=2,..n1Φ(yn1)Φ(yn)Φ(x)1/2ynϕ(yn)Φ(x)1/2=0

donde ϕ(z)=(2π)1/2exp(z22) es el pdf de la normal estándar y Φ(z)=zϕ(ξ)dξ es su cdf.

Se puede ver claramente que la solución analítica de forma cerrada es inviable en este caso.

  1. Acercándose como máximo a n diferentes clientes no más de una vez cada

Primero veamos un problema de 2 clientes: para una secuencia de ofertas y1,y2 y la ordenación (permutación) de los clientes σ(1),σ(2) los ingresos previstos son los siguientes:

Eπ=y1P(vσ(1)>y1)+P(vσ(1)<y1)y2P(vσ(2)>y2|y1>vσ(1))==y1P(vσ(1)>y1)+y2P(vσ(1)<y1vσ(2)>y2).

Ahora bien, no es difícil escribir la fórmula de n clientes:

Eπ=ni=1yiP(vσ(i)>yi(i1j=1vσ(j)<yj))==ni=1yi(P(i1j=1vσ(j)<yj)P(ij=1vσ(j)<yj))==y1+ni=1(yi+1yi)P(ij=1vσ(j)<yj),

donde la última igualdad se cumple si planteamos yn+10 .

Aquí, al igual que en la observación anterior, se puede ver que la solución analítica de forma cerrada del problema de optimización suave interior es imposible de obtener bajo el supuesto de normalidad conjunta, ya que las condiciones de primer orden serán ciertamente no polinómicas.

Esto y dado que el problema exterior es combinatorio hace que la solución numérica (algorítmica) del problema sea el camino más prometedor.

Una idea para avanzar:

Cálculo de probabilidades P(ij=1vσ(j)<yj) puede resultar más fácil si asumimos una distribución uniforme distorsionada (uniforme sobre un [paralelótopo][3]). No he visto nada parecido en la literatura, pero podría ser un buen compromiso entre la simplicidad de las operaciones con la distribución uniforme y la capacidad de la normal para capturar la estructura de covarianza no trivial.

Más concretamente, se puede suponer que v=(v1,...,vn) se distribuye uniformemente en un n -paralelotopo . En este caso el parámetro de la distribución sería la matriz de n vectores apilados a1,...,an en el marco del paralelótopo, y la densidad incondicional sería la inversa de su volumen, mientras que la condicional pueden calcularse como volúmenes de polítopos convexos formulados de forma sencilla.

Dado un oráculo razonablemente rápido para calcular el óptimo y la optimización combinatoria para la moderación n puede realizarse entonces mediante una simple comparación de los beneficios esperados de diferentes permutaciones.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X