Intentaré responder a esta pregunta con una combinación de pruebas publicadas, experiencia personal y especulaciones.
A) Pruebas publicadas.
El único documento que conozco que ayuda a responder la pregunta es Delgado et al 2014 - ¿Necesitamos cientos de clasificadores para resolver problemas de clasificación del mundo real? - JMLR que ejecuta cientos de algoritmos e implementaciones diferentes en 121 conjuntos de datos de la UCI. Descubren que, aunque el RBF SVM no es el "mejor" algoritmo (si no recuerdo mal, es el de los bosques aleatorios), está entre los 3 (o 5) mejores.
Si se considera que su selección de conjuntos de datos es una "buena muestra" de los problemas del mundo real, entonces los SVM son definitivamente un algoritmo que debería probarse en nuevos problemas, ¡pero uno debería probar primero los bosques aleatorios!
Los límites para generalizar ese resultado son que los conjuntos de datos son casi todos altos y delgados (n>>p), no muy dispersos -lo que especulo que debería ser más un problema para la RF- y no muy grandes (tanto n como p).
Por último, y siguiendo con las pruebas publicadas, recomiendo dos sitios que comparan diferentes implementaciones de bosques aleatorios:
B) Experiencia personal.
Creo que trabajos como el de Delgado y otros muy importante para la comunidad de aprendizaje automático, así que intenté replicar sus resultados en algunas condiciones diferentes. Ejecuté unos 15 algoritmos diferentes en más de 100 conjuntos de datos binarios (del conjunto de datos de Delgado). También creo que fui más cuidadoso que ellos en la selección de los hiperparámetros.
Mis resultados son que el SVM fue el "mejor algoritmo" (rango medio 4,9). Mi opinión es que SVM pasó RF porque el conjunto de datos original contenía muchos problemas multiclase - que voy a discutir en la parte de la especulación - debe ser un problema para SVM.
EDIT (Jun/16):
Pero la RF es camino camino más rápido, y fue el segundo mejor algoritmo (rango medio 5,6), seguido de gbm (5,8), nnets (7,2), etc.). No probé la regresión logística estándar en estos problemas, sino que probé una red elástica (L1 y L2 regularizada LR) pero no tuvo un buen rendimiento (rango medio 8,3)~
Todavía no he terminado de analizar los resultados ni de redactar el documento, por lo que ni siquiera puedo señalar un informe técnico con los resultados. Con suerte, en algunas semanas podré reeditar esta respuesta y señalar un informe técnico con los resultados.
El documento está disponible en http://arxiv.org/abs/1606.00930 Resulta que después del análisis completo RF y SVM son casi equivalentes en términos de tasa de error esperada y SVM es el más rápido (¡para mi sorpresa!). Ya no soy tan categórico a la hora de recomendar RF (por motivos de velocidad).
Por lo tanto, mi experiencia personal es que, aunque la SVM puede conseguir un poco más de precisión, casi siempre es mejor utilizar una RF.
Además, para los problemas más grandes, puede ser imposible utilizar un solucionador SVM por lotes (nunca he utilizado un solucionador SVM en línea como LASVM u otros).
Por último, sólo he utilizado la regresión logística en una situación. Estaba haciendo algo de ingeniería de características "intensa" en un problema de clasificación de imágenes (como - combinar o no dos descripciones diferentes de la imagen, y la dimensionalidad de las descripciones). Y utilicé la regresión logística para seleccionar entre las muchas alternativas (porque no hay búsqueda de hiperparámetros en LR). Una vez que nos asentamos en las mejores características (según LR) utilizamos una RF (seleccionando los mejores hiperparámetros) para obtener el clasificador final.
C) Especulación
Nunca he trabajado seriamente en problemas multiclase, pero mi sensación es que los SVM no son tan buenos en ellos. El problema no es la cuestión entre las soluciones de uno contra uno o de uno contra todos, sino que todas las implementaciones que conozco utilizan los mismos hiperparámetros para todos los clasificadores (OVO u OVA). La selección de los hiperparámetros correctos para SVM es tan costosa que ninguna de las implementaciones que conozco hará una búsqueda para cada uno de los clasificadores. Especulo que esto es un problema para SVM (¡pero no un problema para RF!).
Por otra parte, para los problemas multiclase yo iría directamente a RF.