Lo que el autor está tratando de decir es que Naive Bayes trata implícitamente todas las características como independientes entre sí, por lo tanto, los tipos de problemas de maldición de dimensionalidad que suelen surgir al tratar con datos de alta dimensionalidad no se aplican.
Si tus datos tienen $k$ dimensiones, entonces un algoritmo de ML completamente general que intente aprender todas las posibles correlaciones entre estas características tiene que lidiar con $2^k$ interacciones de características posibles, y por lo tanto necesita del orden de $2^k$ datos para ser eficiente. Sin embargo, debido a que Naive Bayes asume independencia entre las características, solo necesita del orden de $k$ datos, exponencialmente menos.
Sin embargo, esto viene con el costo de solo poder capturar asignaciones mucho más simples entre las variables de entrada y la clase de salida, y como tal, Naive Bayes nunca podría competir con algo como una gran red neuronal entrenada en un conjunto de datos grande cuando se trata de tareas como el reconocimiento de imágenes, aunque podría desempeñarse mejor en conjuntos de datos muy pequeños.