$R(d_i, d_j)=\log\det(\mathbf{I}+(d_{i}^{-\alpha}\mathbf{H}_{i}\mathbf{v}_{i}\mathbf{v}_{i}^{*}\mathbf{H}_{i}^{*})(d_{j}^{-\alpha}\mathbf{H}_{j}\mathbf{v}_{j}\mathbf{v}_{j}^{*}\mathbf{H}_{j}^{*}+\sigma^{2}\mathbf{I})^{-1}).$
Quiero afirmar que esto está disminuyendo en $d_{i}$ y aumentando en $d_{j}$ . Creo que es monotónico en estas variables.
He probado con simulaciones y funciona. También puedo probar esto para el caso escalar pero me gustaría probarlo para un caso más general donde $\mathbf{H_i}$ , $\mathbf{H_j}$ son matrices constantes de valor complejo. Entonces $\mathbf{v_i}$ , $\mathbf{v_j}$ son vectores columna constantes de valor complejo. $\alpha$ es una constante real positiva y $d_i$ , $d_j$ son variables escalares de valor real no negativo, $\mathbf{I}$ es la matriz de identidad. La dirección $()^*$ es la transposición hermitiana (conjugada)
Ambos $\mathbf{v_i}$ , $\mathbf{v_j}$ excluir el vector todo cero. Del mismo modo, tanto $\mathbf{H_i}$ , $\mathbf{H_j}$ excluir toda matriz cero. Y $\sigma^2>0$ una constante real. Puede ser que requiera otros supuestos en estos vectores y matrices, pero no sé cuáles pueden ser y cualquier sugerencia es muy apreciada.
Ya lo he probado para el caso escalar y se mantiene. $$\log\left\{1+\frac{\frac{a}{x}}{\frac{b}{y}+\sigma^{2}}\right\}$$ para $a,$ $b$ escalares reales positivos. Gracias.