Hay muchas, y la que mejor funciona depende de los datos. También hay muchas formas de hacer trampas: por ejemplo, se puede realizar una calibración probabilística de las salidas de cualquier clasificador que proporcione algo parecido a una puntuación (es decir, un producto escalar entre el vector de pesos y la entrada). El ejemplo más común es el llamado escalado de Platt.
También está la cuestión de la forma del modelo subyacente. Si tiene interacciones polinómicas con sus datos, entonces la regresión logística vainilla no podrá modelarla bien. Pero puede utilizar una versión de regresión logística con núcleo para que el modelo se ajuste mejor a los datos. Esto suele aumentar la "bondad" de los resultados probabilísticos, ya que también mejora la precisión del clasificador.
En general, la mayoría de los modelos que dan probabilidades suelen utilizar una función logística, por lo que puede ser difícil de comparar. Las redes bayesianas son una alternativa. Las redes bayesianas son una alternativa. Naive Bayes hace suposiciones demasiado simplistas para que sus probabilidades sean buenas, y eso se observa fácilmente en cualquier conjunto de datos de tamaño razonable.
Al final, suele ser más fácil aumentar la calidad de las estimaciones de probabilidad eligiendo el modelo que puede representar mejor los datos. En este sentido, no importa demasiado cómo se obtengan las probabilidades. Si puede obtener una precisión del 70% con una regresión logística y del 98% con una SVM, el mero hecho de dar una probabilidad de "confianza plena" hará que sus resultados sean "mejores" según la mayoría de los métodos de puntuación, aunque no sean realmente probabilidades (y entonces podrá realizar la calibración que he mencionado antes, haciéndolos realmente mejores).
La misma pregunta en el contexto de ser incapaz de obtener un clasificador preciso es más interesante, pero no estoy seguro de que nadie haya estudiado / comparado en tal escenario.