12 votos

¿Es posible una máquina de movimiento perpetuo de segundo tipo en la nanotecnología?

En primer lugar, perdón por mi inglés: no es mi lengua materna.

Durante mis estudios de ingeniería en la universidad, el profesor de termodinámica nos dijo que "la segunda ley de la termodinámica no es cierta para un número bajo de moléculas".

Por aquel entonces, los científicos ya hablaban de microtecnologías en las que moléculas aisladas hacían su trabajo. (Hoy en día ya existen estas tecnologías).

Ahora me pregunto si un máquina de movimiento perpetuo del segundo tipo (una máquina que gana energía enfriando el entorno) sería posible en la nanotecnología. Como resultado, estos microchips reducirían la entropía del universo.

Estaba pensando en el siguiente experimento teórico:

El movimiento molecular de Brown se descubrió al observar objetos en fluidos en piedras de ámbar. Debido al movimiento molecular de Brown estos objetos se mueven. La energía proviene del calor ambiental. Si el objeto fuera un imán pequeño y muy fuerte y se colocaran partes metálicas cerca del ámbar, el imán en movimiento debería inducir corrientes de Foucault en las partes metálicas. Esto significaría que hay un flujo de energía térmica del ámbar a las partes metálicas, incluso si las partes metálicas están más calientes que el ámbar.

Ahora la pregunta: ¿Sería posible un dispositivo de este tipo con tecnología de nanosistemas o incluso de microsistemas?

(Ya se lo pregunté a un profesor de física que sólo me dijo: "tal vez").

0 votos

Querido MArtin Hoy pensé en tu pregunta cuando este se ha preguntado hoy que podría valer la pena seguir - tal vez la termodinámica de la nanotecnología está en ascenso

1 votos

Relacionado, con respecto al demonio de Maxwell: Exorcismo del demonio de Maxwell . También son de interés Trinquetes brownianos En particular, el análisis de Feynman en su conferencia de Messenger La distinción entre pasado y futuro ( enlace ), 22:05 en adelante.

10voto

Renaud Bompuis Puntos 10330

La segunda ley es la siguiente de media para sistemas de cualquier tamaño, grandes o pequeños. Si tienes un aparato aislado que contiene sólo unos pocos átomos y lo sometes a un procedimiento (quizá tan simple como esperar 5 segundos, o quizá más complicado), hay cierta probabilidad de que los átomos acaben en una configuración de menor entropía al final del procedimiento que al principio. A eso se refería tu profesor.

Sin embargo, la probabilidad de que se reduzca la entropía al azar no es alta, y desde luego no es del 100%. El punto clave es que la media El cambio en la entropía, tras muchas repeticiones del procedimiento, no puede ser negativo para ningún procedimiento.

Cuando la gente oye esto, se hace una idea: "Ejecutaré el procedimiento 100 veces, y comprobaré cada vez si la entropía bajó o no al azar, y de alguna manera sólo usaré esa 1 ejecución exitosa para alimentar la máquina de movimiento perpetuo mientras tiro las 99 ejecuciones fallidas". Por desgracia, ¡no funciona así! Uno se referiría a todo este proceso (que implica 100 ejecuciones del procedimiento original) como una sola ejecución de un procedimiento diferente (más complicado), que ahora también implica un esfuerzo / energía adicional para comprobar si la entropía se redujo o no cada vez. (De lo contrario, no se sabría cuál de las 100 ejecuciones utilizar). Ese proceso de comprobación crea suficiente entropía como para anular el beneficio de las ejecuciones repetidas.

Este tipo de cosas se suelen discutir bajo el título de El demonio de Maxwell .

Si tenemos un pequeño imán que se difunde por el movimiento browniano, efectivamente transferirá energía a un metal estacionario cercano a través de las corrientes de Foucault. Desgraciadamente, el proceso inverso ocurre exactamente a la misma velocidad: Los electrones de ese metal se agitan aleatoriamente, creando corrientes que generan campos magnéticos que empujan al imán difusor, transfiriendo así energía del metal al imán. La tasa total de transferencia de energía es igual en ambas direcciones, o más específicamente, mientras ambas partes comiencen a la misma temperatura, se mantienen a la misma temperatura.

ACTUALIZACIÓN CON MÁS DETALLES

Una forma mejor de definir la entropía es decir "No sabemos exactamente cuál es el microestado (configuración microscópica) de un sistema, sino que nuestra mejor información es que existe una distribución de probabilidad de los posibles microestados. Entonces la entropía es $S = k_B \sum_n p_n \log p_n$ donde $p_n$ es la probabilidad del microestado $n$ .

Hay que tener en cuenta que la entropía depende del observador, en el sentido de que un observador puede tener más información sobre la distribución de la probabilidad que otro. En términos más concretos, un sistema puede estar desordenado para un observador, pero otro observador conoce una "receta mágica" para deshacer ese desorden. Por ejemplo, podría crear un aparentemente -Haz de luz no polarizada cambiando la polarización de un láser cada nanosegundo según una secuencia pseudoaleatoria. I conocer la secuencia y, por tanto, puedo utilizar una placa de ondas para recuperar un haz perfectamente polarizado sin pérdidas de intensidad. Pero para alguien que no lo hace conocer mi secuencia pseudo-aleatoria, el rayo realmente necesita ser tratado como no polarizado, y ellos no puede polarizarlo sin pérdidas, según la 2ª ley.

Una configuración de un pequeño número de moléculas puede volverse aleatoriamente "más ordenada" en algún sentido, pero eso no significa que tenga una entropía menor. Hasta que no se mide, no se conozca que se volvió más ordenado, y por lo tanto no se puede hacer uso de ese orden. Todo lo que tienes es una distribución de probabilidad para lo que es el microestado. A medida que pasa el tiempo, la distribución de probabilidad cambia y la entropía que calculas a partir de ella permanece igual o sube. Bueno, en cierto sentido, no sube por el teorema de Liouville en la mecánica clásica o la unitariedad en la mecánica cuántica ... pero a menudo resulta que terminas con inútil información sobre el microestado, es decir, información que no puede traducirse en una "receta mágica" para deshacer el desorden aparente como en el ejemplo de la polarización anterior. En ese caso, es mejor olvidar esa información y aceptar una entropía mayor. Véase esta pregunta .

Cuando se realiza una medición, existe una distribución de probabilidad para los posibles resultados de la medición y los posibles microestados que siguen a la medición. Algunos de los resultados de la medición pueden dejarle con una configuración de baja entropía (usted sabe más o menos cuál es el microestado a partir de la medición). Pero si se hace una media adecuada de todos los posibles resultados de la medición, la entropía global aumenta en promedio como resultado del proceso de medición completo.

5voto

Alan Rominger Puntos 13921

Ahora me pregunto si una máquina de movimiento perpetuo del segundo tipo (una máquina que gana energía enfriando el entorno) sería posible en la nanotecnología. Como resultado, tales microchips reducirían la entropía del universo.

Mil veces no. Si un concepto disminuye la entropía del universo en un sentido no superficial es siempre falso.

En cuanto a su "dispositivo", viola la 2ª ley. Para un dispositivo alternativo que siga obedeciendo a la termodinámica, yo presentaría el convertidor de información a energía . En resumen, utiliza la electrónica (que bien podríamos llamar micro o nano electrónica) para controlar el estado de los átomos dentro de una matriz, y el estado de estos átomos se ve afectado por las fluctuaciones térmicas. Leyendo su estado, almacenándolo en un ordenador, y luego haciendo una intervención que los haga "mantener" o no su estado, la máquina puede obtener energía de las fluctuaciones térmicas.

ratchet

En un sentido cósmico mayor, esta máquina puede trabajar haciendo más frío su entorno. La energía térmica del entorno es lo que hace el trabajo. La advertencia es que necesita un ordenador para controlarla.

Consejo profesional: habrá siempre será una advertencia a las violaciones de la segunda ley.

No hay problema, dirá usted, haremos que los ordenadores sean casi perfectamente eficientes, y entonces la energía será gratuita para siempre, ¿no? Esa es la profunda constatación de esto: que los ordenadores no pueden ser perfectamente eficientes. Hay un mínimo de energía para cambiar un poco .

$$ E_{min} = k T \ln{(2)}$$

A partir de todo esto, el problema de su "dispositivo" es evidente. Si su dispositivo tiene un información conexión a un ordenador que utiliza la energía para hacer cálculos, entonces puede funcionar. Esto parece casi idéntico a enviar electricidad a un cable, pero no lo es. Electricidad mueve la energía del lugar A al B. Aquí, estoy hablando de un servidor informático situado en A, que se comunica con un dispositivo en el lugar B, y el la temperatura del entorno de B se convierte en trabajo . Este trabajo podría ser en realidad electricidad. Imagínese que el aparato de su habitación produce electricidad para hacer funcionar una lámpara. Esa energía luego se convierte en térmica en su habitación hace un círculo alrededor de su habitación. Esto es imposible como un sistema independiente, pero el servidor situado en A es el anfitrión del aumento de entropía no ideal debido a la computación que hace.

0 votos

Esto no responde a la pregunta del PO sobre los números pequeños de partículas, ya que es cierto que la segunda ley puede ser violada con alta probabilidad por sistemas con números pequeños de partículas.

1 votos

@BenCrowell Mi respuesta dice exactamente que la 2ª ley puede ser violada localmente con ese sistema con una entrada de información controlada al sistema. La novedad de esta pregunta comparada con todas las demás del Demonio de Maxwell es el enfoque en la nanotecnología. La referencia describe algo que cumple los requisitos de la nanomáquina en el PO. A menos que me equivoque, por supuesto.

0 votos

No tiene que tener ninguna entrada de información controlada. La segunda ley simplemente no es válida para números pequeños de partículas.

2voto

Keng Puntos 10618

Esa es una gran idea. Maxwell también tuvo una idea para romper la segunda ley de la termodinámica. Imaginó un demonio que clasificaría las moléculas rápidas de las lentas. Como se puede ver en Wikipedia, en El demonio de Maxwell > Crítica y desarrollo En la década de los 90, Leó Szilárd y Léon Brillouin, y posteriormente otros, demostraron que el demonio, o lo que es lo mismo, un nanobot, al realizar esta clasificación, aumentaría en realidad la entropía total. Así que la respuesta parece ser no . Pero no sé cómo se aplica esto a su interesante experimento.

Actualización

Estoy de acuerdo con su profesor en que "la segunda ley de la termodinámica no es cierta para un número bajo de moléculas". Pero precisamente por eso, no podemos utilizar sistemas compuestos por un número pequeño de partículas para romper sistemáticamente esta ley. Pero, todos estos argumentos son en principio, por lo que creo que tu idea merece un análisis más profundo, basado en sus particularidades. Por ejemplo, el imán debería ser lo suficientemente pequeño, para que el movimiento browniano fuera lo suficientemente significativo como para inducir corriente en las placas metálicas. Las corrientes generarán campos magnéticos, que se opondrán al movimiento del imán, y también afectarán a las moléculas de la piedra de ámbar. Estas moléculas también se verán afectadas por el calentamiento debido a las corrientes en las placas, por lo que puede parecer, por un lado, que se produce un equilibrio térmico y se anula el efecto, pero, por otro, que aumenta el movimiento browniano y se amplifica el efecto. En estos lugares yo comprobaría el equilibrio para ver si puede ser positivo.

2voto

Joe Liversedge Puntos 2134

Una pregunta interesante. No me convence del todo el argumento de Cristi Stoica de que esto es equivalente al demonio de Maxwell, ya que el análisis tradicional del demonio de Maxwell asume que la segunda ley se aplica al demonio, mientras que sabemos que la segunda ley tiene una probabilidad significativa de ser violada para sistemas con un número pequeño de partículas.

Pero no es necesariamente cierto que se puedan tomar muchos sistemas pequeños, cada uno de los cuales viola la segunda ley con una probabilidad significativa, y juntarlos para formar un sistema más grande que también viola la segunda ley con una probabilidad significativa.

Por ejemplo, digamos que pongo tres átomos de helio en una caja, y llevo la cuenta de cuántos hay en la mitad izquierda y cuántos en la derecha. La entropía del estado con los tres a la izquierda es menor que la del estado en el que dos están a la izquierda y uno a la derecha. Si observamos la entropía del sistema a lo largo del tiempo, suele bajar. Pero si intento aumentar la escala del sistema juntándolo con un gran número de sistemas de este tipo, es decir, poniendo no sólo 3 sino $3n$ moléculas en la caja, donde $n$ es grande, entonces la probabilidad de disminución espontánea de la entropía se vuelve despreciable.

Tampoco creo que esto sea hipotético o dependa de futuros avances tecnológicos como la capacidad de construir nanomáquinas. Los núcleos, los átomos y las moléculas son todos $n$ -sistemas de cuerpos con un tamaño relativamente pequeño $n$ y las personas que trabajan en estos campos se enfrentan cada día al hecho de que la aplicación de la termodinámica a ellos es sólo aproximada. Por ejemplo, los físicos nucleares se refieren a la temperatura de un núcleo todo el tiempo, pero son conscientes de que están haciendo una aproximación al hacerlo.

0 votos

Creo que llamar la atención de la OP sobre, esencialmente, el teorema de la fluctuación (véase la página Wiki y también Sevick, E. M.; Prabhakar, R.; Williams, Stephen R.; Bernhardt, Debra Joy, "Fluctuation Theorems", Annual Rev. of Phys. Chem, 59 (págs. 603-633) Creo que ayuda a la comprensión del PO y, en particular, explica la conversión de energía a corto plazo que cita, así que +1. Pero también creo que hay que fundamentar la afirmación "tampoco creo que esto sea hipotético o dependa de futuros avances tecnológicos como la capacidad de construir nanomáquinas", que es donde me parece que experimental ...

0 votos

.. la evidencia es esencial para mostrar que tales fluctuaciones no se escalan. No estoy seguro de si los trabajos de E. T. Jaynes son conocidos por usted, pero para mí hacen tambalear el simple razonamiento de tipo estadístico que se suele aplicar a las fluctuaciones. En particular, el "stosszahlansatz" de Boltzmann (suposición de caos molecular) a menudo sólo puede aplicarse una vez, ya que los cambios posteriores en el sistema dejan correlacionados los estados de las moléculas de un gas, lo que genera la diferencia entre las entropías de Gibbs (informativa) y de Boltzmann ("experimental", es decir, definida sólo cuando se tienen sistemas grandes), con ...

0 votos

El primero no cambia en cosas como los cambios de volumen irreversibles, el segundo siempre aumenta. Véase E. T. Jaynes, "Gibbs vs Boltzmann Entropies", Am. J. Phys. 33 , número 5, pp 391-398, 1965 también muchas de sus otras obras en bayes.wustl.edu/etj/articles . Creo que hay que recurrir a los resultados experimentales en lugar de a las simples leyes de los grandes números, en particular, a las condiciones límite del universo observadas experimentalmente para explicar la paradoja de Loschmidt.

1voto

Creo que nos encontramos en un territorio inexplorado y estoy de acuerdo con Cristi Stoica en que su argumento merece un examen más profundo, que no tengo ni el tiempo ni probablemente los conocimientos necesarios para examinar de cerca. Me he preguntado sobre las nanomáquinas y la segunda ley durante algún tiempo, pero creo que podemos apelar al resultado nulo de la el mayor experimento de todos los tiempos junto con el resultado de un experimento no tan grandioso (realizado por nosotros, simples humanos). En primer lugar, permítanme citar el Página de Wikipedia para "Entropía en Termodinámica y Teoría de la Información donde se cita el siguiente experimento:

Shoichi Toyabe; Takahiro Sagawa; Masahito Ueda; Eiro Muneyuki; Masaki Sano (2010-09-29). "Motor térmico de la información: convertir la información en energía mediante control de retroalimentación". Nature Physics 6 (12): 988-992. arXiv:1009.5287. Bibcode:2011NatPh...6..988T. doi:10.1038/nphys1821. "Demostramos que la energía libre se obtiene mediante un control de retroalimentación utilizando la información sobre el sistema; la información se convierte en energía libre, como la primera realización del demonio de Maxwell de tipo Szilard".

Ahora, pensemos en este motor Szilard en el laboratorio como un experimento de pensamiento y observemos en particular que definitivamente escala la posibilidad de realizar un motor Szilard hasta la nano-tecnología, o más importante, la escala de la biología molecular y la microbiología.

Ahora, el experimento más grandioso de todos los tiempos: la evolución de la vida en la Tierra. Después de 3.000 millones (y probablemente más bien 4.000 millones) de años de evolución, dondequiera que los biólogos miren, los motores básicos que impulsan la vida (fotosíntesis, producción mitocondrial de ATP a partir de la energía química ingerida por las células, etc.) se conocen bien y son casi ciertamente universales. Me parece que si existiera una forma de eludir la segunda ley a través de nanomáquinas biológicas (en particular con una variación del motor de Szilard, ya que el experimento anterior muestra cómo se puede escalar a sistemas biológicos), la evolución casi seguramente ya la habría encontrado y este proceso que viola la segunda ley estaría satisfaciendo todas las necesidades de las criaturas que lo desarrollaron. Se podría imaginar que tales criaturas se convertirían rápidamente en dominantes en la biosfera, barriendo todo lo demás. Pero esto aún no ha sucedido, aunque creo que hay un animal que cree ilusoriamente que todas sus necesidades pueden obtenerse gratuitamente del medio ambiente, y eso es justo lo que ese animal parece estar haciendo a la biosfera que le rodea, por lo que tenemos algunas pruebas experimentales anecdóticas sobre cómo podría comportarse un animal que viola la segunda ley y cómo podría afectar a la biosfera. Y sin embargo, después de todo este tiempo de vida en la Tierra, todas las criaturas utilizan procesos de derivación de energía totalmente acordes con la segunda ley. De hecho, la extraña vida (gusanos tubulares y similares) descubierta en las últimas décadas en torno a los "fumadores volcánicos" de las profundidades del océano, parece rendir un homenaje casi poético al experimento mental de Carnot, extrayendo el trabajo del calor y el potencial químico que sale de su "fumador" central, que da vida, y arrojando el exceso de entropía a la oscuridad helada que rodea a su pequeño y próspero vecindario.

No hay máquinas biológicas de movimiento perpetuo del segundo tipo, y este es un resultado experimental nulo muy fuerte. En particular, creo que es probable, dado el motor experimental de Szilard, que la Tierra como ordenador evolutivo (en el espíritu de Douglas Adams) probablemente haya "pensado" en variaciones del motor de Szilard realizadas en máquinas moleculares muchas veces, por lo que el resultado nulo es particularmente señalado como una confirmación de Principio de Landauer un equivalente especialmente conciso de la segunda ley. Un excelente artículo que muestra exactamente cómo el motor de Szilard / demonio de Maxwell debe prestar atención a la segunda ley es Charles Bennett, "The Thermodynamics of Computing: A Review", Int. J. Theoretical Physics, 21 , 12, 1982 . Bennett utilizó puertas mecánicas reversibles ("ordenadores de bola de billar") para estudiar de forma experimental el motor de Szilard y demostrar que el Límite de Landauer (la cantidad mínima de trabajo necesaria para la computación) no surge del coste de averiguar el estado de un sistema (como había supuesto Szilard), sino de la necesidad de "olvidar" continuamente los estados anteriores del motor arrojando la entropía de Shannon teórica de la información de la secuencia de estados de las partículas de gas registradas por el Daemon al mundo circundante codificado como una complejidad creciente en él.

Nota a pie de página : Lo siguiente no es parte de la respuesta así que por favor no lo lean como tal, sino simplemente algunos resultados que provienen de la línea de pensamiento anterior y que me gustaría publicar alguna vez, por lo que lo siguiente tiene no ha sido revisado por pares (Lo grabo aquí para establecer la prioridad, ya que no está en ningún otro sitio de Internet). Una de las ideas sobre la nanotecnología que a menudo aflora en mi mente es que parece haber una falta de pensamiento "global" sobre cómo podríamos diseño nanotecnología. Pensar en la Tierra como un ordenador, en el espíritu de Douglas Adams, muestra rápidamente, incluso mediante un cálculo burdo, que la evolución es mucho más inteligente de lo que puede ser cualquier grupo de diseñadores, de modo que la evolución sintética por ordenador se presenta como una posibilidad. Entonces, ¿qué recursos energéticos necesitamos para "superar a la Tierra"? (es decir, diseñar nanosistemas complejos mediante la evolución sintética). Se puede utilizar el principio de Landauer para obtener algunos límites inferiores que se aplicarán incluso con la computación reversible, por ejemplo, la cuántica de la siguiente manera: la inicialización de cada bit de almacenamiento, necesaria incluso para los algoritmos reversibles al principio, exige el gasto de energía $k\,T\,\log 2$ . Asimismo, si las necesidades de almacenamiento de un algoritmo reversible crecen a lo largo de su ejecución, sus necesidades energéticas por el principio de Landauer son $k\,T\,\log 2$ para cada bit de crecimiento. Podríamos imaginar la búsqueda por fuerza bruta de algún ordenador cuántico lejano en el futuro si se pudiera abstraer el espacio de configuración de todas las posibles biosferas en evolución para pensar en esta reunión de posibilidades como una base de datos colosal. Es probable que las necesidades energéticas del límite de Landauer de almacenamiento de la memoria de esta base de datos sean mayores que la producción total del Sol durante una fracción considerable, si no toda su vida, por lo que la fuerza bruta parece estar descartada. Así que pensemos en un algoritmo de evolución sintética reversible (de hecho, tales algoritmos reversibles parecen existir en la literatura) equivalente a la biosfera primitiva. Las estimaciones sobre el número de procariotas en la biosfera son del orden de $10^{31}$ organismos. Con estimaciones aproximadas razonables de la combinatoria que surge en la transferencia genética horizontal asexual de estos organismos y estimaciones de la frecuencia de esta transferencia asexual, encontramos que necesitaríamos una secuencia "verdaderamente aleatoria" de entrada a nuestro algoritmo genético para simular la mezcla genética a la tasa $R$ de aproximadamente $10^{29}$ a $10^{30}$ bits por segundo sólo para estar al tanto de la evolución de la Tierra. La sexualidad en los eucariotas significa que los bits por organismo son mucho más elevados, pero hay muchos menos en la biosfera, por lo que también requerirían una secuencia aleatoria de aproximadamente la misma tasa que el conjunto de todos los procariotas de la Tierra: las formas de vida básicas sexuales y asexuales están buscando en el espacio de configuración aproximadamente a la misma tasa, lo cual es razonable: si dos clases de organismos en el mismo nicho ecológico (por ejemplo, los eucariotas productores y los prohayotes) buscaran a un ritmo mucho más rápido que el otro y superaran a los demás. Si dos clases de organismos en el mismo nicho ecológico (por ejemplo, los eucariotas productores y los prohayotas) buscaran en el espacio de configuración a ritmos muy diferentes, uno evolucionaría mucho más rápido que el otro y lo superaría. Ahora bien, si la secuencia aleatoria de entrada es realmente aleatoria, un algoritmo reversible que tome esta secuencia como entrada debe crecer en almacenamiento al menos a esta velocidad, por lo que nuestro límite de Landauer del algoritmo genético básico y reversible es $R\,k\,T\,\log 2$ . Así que supongamos que queremos simular la explosión del Cámbrico (10 millones de años) en 100 años por el bien de nuestros bisnietos. Obtenemos $10^5\,R\,k\,T\,\log 2$ vatios como nuestros requisitos de potencia límite de Landauer, o alrededor de $3\times10^{15}$ vatios o unos 30 gramos por segundo : alrededor de una trigésima parte de la energía solar total que ilumina la Tierra y aproximadamente tres órdenes de magnitud mayores que el ritmo actual de consumo de energía por parte del ser humano. Y este es el límite de Landauer. Entonces, ¿podemos utilizar un $T$ ? No con ningún beneficio en la Tierra: la segunda ley muestra que la refigeración sólo empeorará este resultado. Así que el lugar natural para hacer este cálculo es un ordenador del tamaño de un planeta enano en la nube de Oort y, posiblemente, recoger y la energía solar mediante un colector cercano al Sol y transportar la energía hacia él. Aun así, con estimaciones razonables de lo grande que tendría que ser la superficie de disipación para mantenerla fría. Calculo unas decenas de kelvin como su temperatura de estado estacionario cuando se alcanza el intercambio de calor radiante con la radiación cósmica de fondo de microondas.

0 votos

@Nathaniel Creo que deberías analizar bien esta cuestión, dada tu considerable experiencia en este campo.

0 votos

Este es un buen punto "la evolución casi seguramente ya lo habría encontrado y este proceso que viola la segunda ley estaría satisfaciendo todas las necesidades de las criaturas que lo desarrollaron". Cualquiera que haya estudiado suficientemente la fotosíntesis o la mecánica celular estará de acuerdo en que las células son una nanotecnología altamente optimizada. Sus procesos de conversión de energía tienen un gran número de pasos complicados. Si una puerta molecular hubiera podido convertirse en el demonio en un sentido convencional, una de estas partes lo habría hecho.

0 votos

La idea de argumentar desde la biología es bonita, pero no creo que funcione aquí. Como argumenté con más detalle en mi respuesta, la segunda ley puede ser violada a escala microscópica (números pequeños de partículas) sin proporcionar ninguna forma posible de escalar la violación a escalas mayores. Así que la falta de violación a escalas mayores no demuestra la falta de violación a escalas menores. Incluso un virus es un sistema macroscópico en términos de número de partículas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X