Cambiar el valor de una función integrable en un número finito de puntos no tendrá ningún efecto sobre el valor de la integral definida, y a continuación explicaré por qué.
Proporciona una función de $f$ es integrable en un intervalo de $[a, b]$, la integral definida es rigurosamente definido de la siguiente manera: para cualquier partición determinada $\mathcal{P}$ de un intervalo de $[a, b]$, no hay una única $I$ tal forma que:
$$L(f, \mathcal{P}) \leq I = \int_a^b f(x) \ dx \leq U(f, \mathcal{P})$$
Donde $\displaystyle L(f, \mathcal{P}) = \sum_{i} (x_{i+1} - x_i)\inf \Big( \{f(x) \ | \ x \in [x_i, x_{i+1}] \} \Big)$ donde $x_i$'s $\in \mathcal{P}$
y de la misma manera $\displaystyle U(f, \mathcal{P}) = \sum_i (x_{i+1} - x_i)\sup \Big( \{ f(x) \ | \ x \in [x_i, x_{i+1}] \} \Big)$
Y así con en mente, es posible mostrar que el cambio del valor de una función integrable en un solo punto no tiene ningún efecto sobre el valor de la integral definida. Básicamente, la idea es que se tome su original particiones y refinarlos para encerrar los puntos en cuestión dentro de los intervalos de arbitrariamente pequeño ancho.
Para continuar el debate, véase el Capítulo 6 de Walter Rudin los Principios de Análisis Matemático (los archivos Pdf están disponibles gratuitamente en línea).