Aquí hay una prueba simple que asume que el OP sabe cómo descomponer una serie geométrica finita y tomar el límite de una secuencia escalar (compleja).
La idea principal es observar:
$\text{traza}\Big(\big(AB\big)^k\Big)=\text{traza}\Big(\big(BA\big)^k\Big)$ para $k \in\{1,2,3,...\}$
y lo siguiente demuestra que si las trazas de dos matrices complejas $\text{n x n}$ coinciden para todas las potencias de $k$, entonces las dos matrices tienen los mismos valores propios. (Con mucho más trabajo, lo anterior puede desarrollarse en las Identidades de Newton aunque eso parecía estar fuera del alcance).
con $AB$ teniendo valores propios distintos $\lambda_{AB}=\{\lambda_1, \lambda_2, ..., \lambda_d\}$ y $BA$ teniendo valores propios distintos $\lambda_{BA}=\{\gamma_1, \gamma_2, ..., \gamma_r\}$. Entre los dos conjuntos, hay un valor propio de módulo máximo denotado $\sigma$. Y para efectos de ordenación, en cada caso la ordenación es de menor a mayor módulo.
$x \in \mathbb C, \big \vert x\big \vert \gt \sigma$
es decir, $x$ puede tener cualquier valor en el plano complejo fuera del círculo con radio $\sigma$ (que está centrado en el origen)
$\sum_{k=1}^d\alpha_k\frac{1-(\frac{\lambda_k}{x})^m}{1-\frac{\lambda_k}{x}} =n + \sum_{k=1}^{m-1} \text{traza}\Big(\big(\frac{1}{x}AB\big)^k\Big) =n + \sum_{k=1}^{m-1} \text{traza}\Big(\big(\frac{1}{x}BA\big)^k\Big)=\sum_{j=1}^r\beta_j\frac{1-(\frac{\gamma_j}{x})^m}{1-\frac{\gamma_j}{x}}$
donde $\alpha_k$ y $\beta_j$ son enteros positivos, es decir, denotan las multiplicidades algebraicas de los valores propios. Tomando límites cuando $m\to \infty$
$\sum_{k=1}^d\alpha_k\frac{1}{1-\frac{\lambda_k}{x}}= \sum_{j=1}^r\beta_j\frac{1}{1-\frac{\gamma_j}{x}}$
supongamos sin pérdida de generalidad que $\vert \lambda_d\vert =\sigma$ y multiplicamos ambos lados por $(1-\frac{\lambda_d}{x})$
$LHS=(1-\frac{\lambda_d}{x})\sum_{k=1}^d\alpha_k\frac{1}{1-\frac{\lambda_k}{x}}= (1-\frac{\lambda_d}{x})\sum_{j=1}^r\beta_j\frac{1}{1-\frac{\gamma_j}{x}}=RHS
tomamos un límite cuando $x\to \lambda_d$ e.g. secuencialmente $x_t = (1 +\frac{1}{t})\lambda_d$
$0\lt \alpha_d= \lim_{x\to \lambda_d}\sum_{j=1}^r\beta_j(1-\frac{\lambda_d}{x})\frac{1}{1-\frac{\gamma_j}{x}}$
pero $\lim_{x\to \lambda_d}(1-\frac{\lambda_d}{x})\frac{1}{1-\frac{\gamma_j}{x}}= 1$ si y solo si $\gamma_j = \lambda_d$ y 0 en caso contrario.
Así que hay un valor propio de módulo máximo en común con las mismas multiplicidades algebraicas y la denominación (excepto para los propósitos de módulo) es arbitraria, así que suponemos sin pérdida de generalidad que $\gamma_r = \lambda_d$. Así que $\beta_r = \alpha_d$. Ahora se procede de manera recursiva en el subproblema estrictamente más pequeño.
$LHS=\sum_{k=1}^{d-1}\alpha_k\frac{1}{1-\frac{\lambda_k}{x}}= \sum_{j=1}^{r-1}\beta_j\frac{1}{1-\frac{\gamma_j}{x}}=RHS