Yo estaba jugando con el concepto de fracción derivados, y encontré algunas funciones base para la que se define, a saber, de poder y de funciones exponenciales
$$ \left(\frac{d}{dt}\right)^\alpha t^k = \frac{\Gamma(k+1)}{\Gamma(k-\alpha+1)} t^{k-\alpha}, \quad k\geq0 \etiqueta{1} $$
$$ \left(\frac{d}{dt}\right)^\alpha e^{kt} = k^\alpha e^{kt} = e^{kt + \alpha \log(k)}. \etiqueta{2} $$
Me pregunto cuál es la derivada fraccional sería de $\sin(\omega t)$ y, en principio, a pesar de que si me gustaría calcular su serie de Taylor en $t=0$, que luego se puede utilizar (1) para encontrar su fracción derivados. Pero después me llegó a través de (2) y se dio cuenta de que en este caso se puede encontrar mucho más fácil. Es decir, $\sin(\omega t)$ puede ser escrito como
$$ \sin(\omega t) = \frac{1}{2} \left(e^{i\omega t} - e^{-i\omega t}\right) \etiqueta{3} $$
por lo tanto la derivada fraccional se puede encontrar con (2)
$$ \left(\frac{d}{dt}\right)^\alpha \sin(\omega t) = \frac{1}{2} \left(e^{i\omega t + \alpha \log(i\omega)} - e^{-i\omega t + \alpha \log(-i\omega)}\right) = \omega^\alpha \sin\left(\omega t + \alpha \frac{\pi}{2}\right). \etiqueta{4} $$
Pero si comparo esto con el resultado que obtengo al utilizar la serie de Taylor me siento muy mal resultados para$t<0$$t$, ligeramente mayor que $0$ me sale una transición hacia el resultado correcto. Por ejemplo, aquí están los resultados que obtengo cuando $\alpha=\frac 12$, $\omega=1$ y la serie de Taylor se aproxima con 50 términos:
Podría ser que (1) es cierto sólo para $t>0$ y que la toma de las facciones, derivado de una serie de Taylor no podría haber una convergencia cerca del punto en el que la serie de Taylor se construye, en mi caso $t=0$?