Dado que esto involucra explícitamente probabilidades, es apropiado hacer una demostración usando herramientas de probabilidad. La matriz de OP es una Matriz de Covarianza para un conjunto particular de Bernoulis. Una vez que demostramos que este conjunto es linealmente independiente, el resultado sigue.
Sea $U$ una variable aleatoria uniforme que toma valores en $(0,1]$ y dividimos estos valores en intervalos y variables aleatorias indicadoras asociadas
$\Big\{\big(0,\pi_1\big],\big(\pi_1, \pi_1 + \pi_2\big],...,\big(\sum_{i=1}^k\pi_i, \sum_{i=1}^{k+1}\pi_i =1\big]\Big\}$
$\Big\{X_1,X_2,...,X_{k+1}\Big\}$
estas variables aleatorias son dependientes ya que para cualquier $\omega$ exactamente una de ellas es 1 y las demás son cero de manera idéntica.
Consideremos la variable aleatoria centrada $Y_i:= X_i - \pi_i$
Note que $X_1+...+X_{k}+X_{k+1} = 1\implies Y_1+...+Y_{k}+Y_{k+1}=0$
Así que usando todas las $k+1$ variables aleatorias da como resultado un conjunto linealmente dependiente. En lugar de ello nos enfocamos en $Y_i$ para $i\in\{1,..,k\}$ y en el vector aleatorio asociado
$\mathbf y: = \begin{bmatrix} Y_1 \\ Y_2\\ \vdots \\ Y_{k}\\ \end{bmatrix}= \begin{bmatrix} X_1 \\ X_2\\ \vdots \\ X_{k}\\ \end{bmatrix}- \begin{bmatrix} \pi_1 \\ \pi_2\\ \vdots \\ \pi_{k}\\ \end{bmatrix}$
estos $Y_i$ son linealmente independientes, es decir para $\mathbf v\in \mathbf R^k$ tenemos $\big(\sum_{i=1}^{k}v_iY_i\big) = 0 \implies \mathbf v = \mathbf 0$
suponiendo que esto no fuera el caso: entonces existe algún $i$ tal que WP1
$Y_i = \big(\sum_{1\leq j\lt i} \alpha_j Y_j\big)+\big(\sum_{i\lt j \leq k} \alpha_j Y_j\big)$
sin embargo con probabilidad $\pi_i\gt 0$ el LHS es $1-\pi_i$ y el RHS es $c$, y con probabilidad $\pi_{k+1}\gt 0$ el LHS es $-\pi_i$ y el RHS es $c$, por lo tanto $1-\pi_i = -\pi_i\implies 1=0$, una contradicción.
Finalmente, consideremos la Matriz de Covarianza
$\Sigma = E\big[\mathbf y\mathbf y^T\big] = \begin{bmatrix} \pi_1(1-\pi_1) & -\pi_1\pi_2 & -\pi_1\pi_3& \cdots & -\pi_1\pi_{k}\\ -\pi_1\pi_2 & \pi_2(1-\pi_2) & -\pi_2\pi_3 & \cdots & -\pi_2\pi_{k}\\ \vdots & & & \vdots&\\ -\pi_{k}\pi_1 & -\pi_{k}\pi_2 & -\pi_{k}\pi_3 & \cdots & \pi_{k}(1-\pi_{k}) \end{bmatrix}$
para cualquier $\mathbf v \in \mathbf R^{k}-\{\mathbf 0\}$
$\mathbf v^T\Sigma\mathbf v$
$=\sum_{i=1}^{k}\sum_{j=1}^{k}v_i v_jE\big[Y_iY_j\big]$
$=E\big[\sum_{i=1}^{k}\sum_{j=1}^{k}v_i v_jY_iY_j\big]$
$=E\big[\big(\sum_{i=1}^{k}v_iY_i\big)^2\big]$
$\gt 0$
Por lo tanto $\Sigma\succ \mathbf 0$ y la matriz $A_{k-1}$ es un menor principal líder y por lo tanto también es DP (lo que implica no singular).