El uso de super secuencias de comandos, como tú has dicho, creo que es no muy común en la máquina de aprendizaje de la literatura. Tendría que revisar Ng notas del curso para confirmar, pero si se está poniendo en la que hay, yo diría que sería el origen de la proliferación de este tipo de notación. Esta es una posibilidad. De cualquier manera, no ser demasiado cruel, pero no creo que mucha de la línea de curso de los alumnos de la publicación de la literatura en el aprendizaje de máquina, por lo que esta notación no es muy común en la literatura actual. Después de todo, estos son los cursos de iniciación en el aprendizaje de máquina, no a nivel de Doctorado cursos.
Lo que es muy común con super secuencias de comandos es para denotar la iteración de un algoritmo utilizando super secuencias de comandos. Por ejemplo, usted podría escribir una iteración del método de Newton como
$ \theta^{(t+1)} = \theta^{(t)} - H(\theta^{(t)}) ^{-1} \nabla \theta^{(t)}$
donde $ H(\theta^{(t)}) $ es el de Hesse y $\nabla \theta^{(t)}$ es el gradiente.
(...sí, esta no es la mejor manera de aplicar el método de Newton debido a la inversión de la matriz Hessiana...)
Aquí, $\theta^{(t)}$ representa el valor de $\theta$ $t^{th}$ iteración. Este es el más común (pero ciertamente no el único) uso de super secuencias de comandos de la que soy consciente.
EDITAR:
Para aclarar, en la pregunta original, parece sugerir que, en el ML de notación, $x^{(i)}$ es equivalente a la de estadística de la $x_i$ notación. En mi respuesta, he estado de que esto no es realmente frecuente en ML de la literatura. Esto es cierto. Sin embargo, como se ha señalado por @ameba, hay un montón de superíndice notación, en ML, de la literatura de los datos, pero en estos casos $x^{(i)}$ no suelen decir el $i^{th}$ observación de un único vector de $x$.