Aquí hay un bosquejo de cómo probar que $P$ no es igual a $NP$. Todas las ideas se basan en discusiones con C.A. Feinstein.
Medidas y Algoritmos:
(Decidir soportes es el problema de decisión universal) Todo problema de decisión es equivalente al problema de decidir el soporte de una medida $\mu$. O casi equivalentemente, de decidir el soporte de la imagen de una función $F$. P.ej. para el problema de la suma de subconjuntos, la imagen es el avance hacia $\bf{Z}$ de la suma total $\epsilon: 2^X \to {\bf{Z}}$.
(Los algoritmos son composiciones de medidas, equivalentemente caminos en la categoría de espacios finitos de medidas) Un algoritmo para resolver un problema de decisión es una composición de la medida $\mu$ o la función $F$ en medidas intermedias o evaluaciones de funciones. Aquí comentamos que hay una composición natural de medidas, c.f. las demostraciones de desigualdades triangulares en espacios de Wasserstein.
¿Qué es la Complejidad de una Medida o Función o Algoritmo?
La definición clásica de complejidad computacional cuenta la cantidad de pasos de tiempo requeridos, o la cantidad de llamadas a RAM o evaluaciones de funciones, en el peor de los casos posibles. Requerimos aquí una definición de complejidad para las medidas. La definición debe ser absolutamente simple, y solo podemos decir que la complejidad de una medida es el "tamaño" de su soporte. En este sentido, la complejidad es equivalente a la "entropía" tal como la define Gromov [insertar referencia].
- (Complejidad y Entropía: la misma cantidad) La complejidad de una medida o de una función es el "tamaño" del soporte. La complejidad es subaditiva (¿o superaditiva?) con respecto a la composición. Esto significa que descomponer $F$ en una composición muy larga $F=\cdots \circ F_i \circ F_{i-1} \circ \cdots$ no necesariamente reduce la complejidad.
Cada algoritmo es una composición de búsquedas aleatorias
- (Teorema de factorización algorítmica) Cada algoritmo es una composición de evaluaciones de funciones deterministas y búsqueda aleatoria sobre un subconjunto. (Esto requiere una definición y prueba más formal). Esto también formaliza la idea de que la medida de Lebesgue en un conjunto equivale a una búsqueda aleatoria en el soporte.
La búsqueda aleatoria es computacionalmente irreductible
- (Invariancia de dominio e irreductibilidad de la complejidad de la medida) Se aplica el teorema de invariancia de dominio de Brouwer-Lebesgue. Esto dice que no existen mapas continuos de conservación de medidas inyectivas desde $R^n$ hasta una dimensión más pequeña $R^k$ para $k < n$.
Los ítems 1., 2., ..., 5. si pueden establecerse rigurosamente probarán esencialmente que $P \neq NP$.