He aquí algunos argumentos de "orden de magnitud":
Citando a https://en.wikipedia.org/wiki/Decay_heat#Spent_fuel :
Al cabo de un año, el combustible nuclear gastado típico genera unos 10 kW de calor de desintegración por tonelada, reduciéndose a unos 1 kW/t al cabo de diez años
Ahora bien, como se trata de calor, no se puede convertir en electricidad con una eficiencia del 100%, la máxima eficiencia posible viene dada por el Eficiencia de Carnot $\eta$ :
$$ \eta \le 1 - \dfrac{T_\mathrm{cold}}{T_\mathrm{hot}} $$
donde $T_\mathrm{hot}$ sería la temperatura de las barras de combustible gastadas (en Kelvin) y $T_\mathrm{cold}$ sería la temperatura de un depósito frío contra el que funcionaría un generador. Habría que hacer otro cálculo de cuál sería la temperatura razonable de las barras de combustible (en la práctica parece que actualmente se mantienen a 50 grados C ).
Con el combustible "primario" normalmente 55 gigavatios-día por tonelada puede producirse, es decir, una central eléctrica de 1 gigavatio utilizaría 365,25 / 55 = 6,6 toneladas al año.
Incluso suponiendo que se pudiera convertir esto en electricidad con una eficiencia del 100% y asumiendo una media de 5 kilovatios por tonelada durante 10 años, esto produciría unos 18'000 kilovatios-día o 0,018 gigavatios-día, aproximadamente 0.03% de la producción de energía primaria.
También verás en la eficiencia Carnot anterior que las temperaturas más altas implican una mayor eficiencia posible, es decir, si se puede gastar algo de energía para extraer el material aún fisionable para usarlo en un reactor de nuevo, es probable que sea más eficiente en términos de generación de electricidad.
Por otro lado, es cierto que generadores termoeléctricos radioisotópicos (fuentes radiactivas combinadas con termopares) se han utilizado en misiones por satélite.