La motivación estándar, como explicó QuantumDot, es reproducir la relación energía momento de la relatividad a partir del campo escalar. Pero hay un argumento independiente para esto que proviene de la mecánica estadística.
Consideremos una función de partición mecánica estadística para un campo definido en una red muy fina. En general, el equilibrio sólo permitirá fluctuaciones locales, de modo que el campo tendrá una distribución de probabilidad en cualquier punto de la red que es localmente independiente de las fluctuaciones en cualquier otro punto distante de la red. En este caso, se puede observar la red en escalas de distancia gruesas y definir un campo medio $\phi$ sobre muchos espaciamientos de la red,s y escribir la función de partición como un producto de funciones de partición independientes en cada punto de la red gruesa:
$$ Z = \prod \int e^{V(\phi)} d\phi$$
Y como el campo grueso de la red es la media del campo fino de la red, se sabe por el teorema del límite central que la distribución será gaussiana:
$$ Z = \int e^{\int {1\over 2}m^2 \phi^2} D\phi$$
La última línea es una integral de trayectoria, una suma tipo función de partición sobre todas las cofiguraciones, y la identidad que garantiza que reproduce fluctuaciones locales independientes es justo la misma que te dice que dos sistemas independientes tienen una función de partición que se multiplica (o una energía libre que se suma).
Este tipo de cosas es muy aburrido, y es la situación típica de los campos estadísticos o cuánticos: fluctuaciones independientes totalmente locales, lo que se suele llamar un campo ultralocal. Esto no es algo que observaríamos como algo dinámico, ya que vivimos a escalas mucho mayores que cualquier escala de granularidad.
Consideremos qué ocurriría si ajustamos las fluctuaciones para que sean grandes. Para ello es necesario ajustar con precisión el parámetro de fluctuación gaussiano efectivo $m^2$ a 0. Esto no es particularmente difícil de imaginar, porque se utiliza el teorema del límite central para obtener el $m^2$ comportamiento--- puedes imaginar que el potencial microscópico es realmente de la forma $m^2 \phi^2 + \lambda\phi^4$ y luego si afinas el $m^2$ sea un valor especial, cambiará la estabilidad del $\phi=0$ punto. Se trata de un punto crítico en mecánica estadística.
Ahora bien, si nos fijamos en las largas distancias, se espera que la energía libre de las configuraciones de campo en una red de grano grueso debe ir como:
$$ \int F(\nabla\phi, \phi) $$
Donde se amplían sólo los términos derivados más importantes. Si lo escribes como una serie, suponiendo que $\phi\rightarrow -\phi$ simetría:
$$ \int |\nabla \phi |^2 + t \phi^2 + \lambda \phi^4 + g \phi^6 + h |\nabla^2\phi|^2 $$
Entonces puedes convencerte de que bajo reescalado, manteniendo fijo el coeficiente del primer término, sólo importan los 3 primeros términos en dimensión 4 o menos. Esto quiere decir que si normalizas las fluctuaciones del campo de modo que el coeficiente de correlación de la derivada principal determine la escala del campo, sólo el término cuadrático y el cuártico son renormalizables, sólo éstos contribuyen a las correlaciones a larga distancia.
La integral de trayectoria de Feynman justifica por qué este tipo de razonamiento tiene algo que ver con la mecánica cuántica. Cualquier teoría de campo bosónica con una acción invariante en el tiempo continúa analíticamente a un campo estadístico, y este campo estadístico es un límite de longitud de onda larga de alguna cosa de distancia corta. La clasificación de las teorías posibles es entonces por la generalización del teorema del límite central que te dice que el campo ultralocal es el caso más común.
Para los fermiones quirales y los campos gauge, ni siquiera es necesario el ajuste fino de un parámetro para tener un límite fluctuante. Los campos gauge mantienen un límite fluctuante por invariancia gauge, y los fermiones quirales por el hecho de que no pueden crear una masa sin emparejarse. Estos son los ingredientes del modelo estándar.
La justificación de los lagrangianos en la teoría de campos proviene en última instancia de la renormalizabilidad, pero esto es difícil porque falta una teoría rigurosa. También se pueden justificar pidiendo una teoría en la que se tenga un número finito de partículas fundamentales de espín y masa dados, que para espín 0 reproduzca la no interacción ( $\lambda=0$ ) de este argumento. Se trata de un argumento un tanto complementario porque la unitraridad impone restricciones más fuertes a la forma del lagrangiano cuántico que el mero hecho de ser renormalizable, por lo que es bueno conocer ambas cadenas de razonamiento.