Nota que $$ (n+k)\binom{n+k-1}{k} = \frac{(n+k)(n+k-1)!}{(n-1)!k!} = \frac{(n+k)!}{(n-1)!k!} = n\frac{(n+k)!}{n!k!} =n\binom{n+k}{k}, $$
por lo que al dejar $x = 1 - p$ podemos escribir $$ E(X) = n (1-x)^n \sum_{k=0}^\infty \binom{n+k}{k} x^k. $$ Usando la prueba por razón, la serie converge cuando $\lvert x\rvert < 1$.
Pero, usando el hecho de que $\displaystyle\binom ab = \binom{a-1}{b-1} + \binom{a-1}b$, si $n \geq 1$ tenemos \begin{align} \sum_{k=0}^\infty \binom{n+k}{k} x^k &= 1 + \sum_{k=1}^\infty \binom{n+k}{k} x^k && \binom{n+0}{0} x^0 = 1 \\ &= 1 + \sum_{k=1}^\infty \left(\binom{n+k-1}{k} + \binom{n+k-1}{k-1}\right) x^k \\ &= \left( 1 + \sum_{k=1}^\infty \binom{n+k-1}{k} x^k\right) + \sum_{k=1}^\infty \binom{n+k-1}{k-1} x^k\\ &= \sum_{k=0}^\infty \binom{n+k-1}{k} x^k + \sum_{m=0}^\infty \binom{n+m}{m} x^{m+1} && k\to m+1\\ &= \sum_{k=0}^\infty \binom{n+k-1}{k} x^k + x\sum_{k=0}^\infty \binom{n+k}{k} x^k && m \to k\\ \end{align}
y por lo tanto $$ (1 - x) \sum_{k=0}^\infty \binom{n+k}{k} x^k = \sum_{k=0}^\infty \binom{(n-1)+k}{k} x^k, $$ entonces $$ \sum_{k=0}^\infty \binom{n+k}{k} x^k = \frac{1}{1 - x} \sum_{k=0}^\infty \binom{(n-1)+k}{k} x^k. \tag1 $$
Esto sugiere una prueba inductiva.
Lema: Si $n \geq 0$ y $\lvert x\rvert < 1$, $$\sum_{k=0}^\infty \binom{n+k}{k} x^k = \frac{1}{(1 - x)^{n+1}}.$$
Prueba: Para el caso base $n = 0,$ $$ \sum_{k=0}^\infty \binom{n+k}{k} x^k = \sum_{k=0}^\infty x^k = \frac{1}{1 - x} = \frac{1}{(1 - x)^{n+1}}. $$
Ahora supongamos que para algún $n = m \geq 0,$ $$\sum_{k=0}^\infty \binom{n+k}{k} x^k = \frac{1}{(1 - x)^{n+1}}.$$
Entonces por la Ecuación $(1)$ y la hipótesis inductiva, $$ \sum_{k=0}^\infty \binom{(m+1)+k}{k} x^k = \frac{1}{1 - x} \sum_{k=0}^\infty \binom{m+k}{k} x^k = \frac{1}{1 - x} \cdot \frac{1}{(1 - x)^{m+1}} = \frac{1}{(1 - x)^{m+2}}, $$ demostrando la proposición para $n = m + 1$, lo que completa el paso inductivo y demuestra el lema. $\square$
Entonces podemos concluir que $$ E(X) = n (1-x)^n \sum_{k=0}^\infty \binom{n+k}{k} x^k = n (1-x)^n \cdot \frac{1}{(1 - x)^{n+1}} = \frac{n}{1-x} $$ y por lo tanto $E(X) = n/p.$
Pero creo que un método mucho más fácil es definir variables aleatorias $Y_1,Y_2,\ldots,Y_n$ de modo que $Y_1$ sea el número de lanzamientos hasta e incluyendo la primera cara, y para $k \geq 2$, $Y_k$ sea el número de lanzamientos después de la $(k-1)$-ésima cara, hasta e incluyendo la $k$-ésima cara. Entonces $$ X = Y_1 + Y_2 + \cdots + Y_n, $$ así que por la linealidad de la esperanza, $$ E(X) = E(Y_1) + E(Y_2) + \cdots + E(Y_n), $$ y como $E(Y_k) = 1/p$ para $1 \leq k \leq n$, $$ E(X) = n\cdot \frac1p = \frac np.$$