Estadísticos de la teoría del aprendizaje generalmente se ocupa de la complejidad de la muestra, es decir, cuántas muestras necesito para producir una hipótesis de tener un error con una probabilidad alta. Más concretamente, si $S$ es un conjunto de muestras y $h_S$ es la hipótesis devueltas por algún algoritmo de aprendizaje cuando se administra $S$ como entrada, normalmente uno ve a producir declaraciones de la forma
$$
P(\text{err}(h_S)\le \epsilon) \ge 1 - \delta
$$
si $|S| \ge m$ algunos $m = \text{poly}(1/\epsilon, 1/\delta)$.
En el anterior hemos ignorado completamente cómo $h_S$ fue generado. Computacional Teoría de Aprendizaje es el campo que se ocupa de estos tipos de problemas computacionales. Uno puede, por ejemplo, requieren que el algoritmo que produce $h_S$ a ejecutar en el tiempo $\text{poly}(1/\epsilon, 1/\delta)$, observe que la anterior es una condición necesaria para que esto sea posible. Otras cosas comunes estudiados son ¿qué pasa si el algoritmo tiene acceso a información diferente (miembros de las consultas de permitir que el algoritmo de aprendizaje para la consulta de oracle para la etiqueta de los puntos que se elige), cuántos errores hace un alumno en un aprendizaje en línea, ¿qué sucede si la retroalimentación es limitado como en el aprendizaje por refuerzo, etc.
Hay mucho más y es un campo fascinante, pero en lugar de una lista de ellos, voy a señalar que el libro Una Introducción a la Teoría del Aprendizaje Computacional por Kearns y Vazirani, que es una gran introducción al tema.