(→Energia swobodna (metody)) |
(→Literatura) |
||
(Nie pokazano 7 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 1: | Linia 1: | ||
=Energia swobodna (metody)= | =Energia swobodna (metody)= | ||
+ | W tym artykule koncentrujemy się na metodach, które stoją na gruncie fizyki statystycznej. | ||
+ | Są to metody wolne i nadal niedoskonałe, ale stanowią podejście systematyczne, w którym dążąc do coraz lepszych wyników uczymy się mechanizmów, których używa biologia. | ||
+ | ==Początki i rozwój== | ||
− | === | + | Teoria, na której komputerowe metody wyznaczania energii swobodnej wyrastają, powstała na początku XX wieku i rozwijana jest do dzisiaj. |
− | + | Jednak nawet bardzo uproszczone narzędzia estymacji energii swobodnej długo nie mogły powstać z powodu ograniczeń mocy obliczeniowej komputerów. | |
− | + | ||
+ | John Kirkwood [1] położył podwaliny pod przyszłe metody wyznaczania energii swobodnej - teorię perturbacyjną ([[Free Energy Perturbation (FEP)|FEP]]) oraz całkowanie termodynamiczne ([[Thermodynamic Integration (TI)|TI]]). | ||
+ | Posługując się ówczesnymi zdobyczami mechaniki statystycznej, Kirkwood zaproponował koncepcję ''współrzędnej reakcji'', czy też: ''parametru porządku'', tzn. funkcji opisującej przebieg reakcji, którą Kirkwood posłużył się do zdefiniowania zmiany w energii swobodnej między dwoma stabilnymi stanami układu. | ||
+ | |||
+ | Blisko 20 lat później Robert Zwanzig [2] wykorzystał podejście perturbacyjne do wyznaczenia zmian energii swobodnej modelowych atomów, które oddziaływały ze sobą za pomocą prostego, aczkolwiek niefizycznego, potencjału przyciągającego. | ||
+ | Rozwinięcie w wysokich temperaturach zaproponowane przez Zwanziga dla prostych apolarnych gazów stało się bazą dla przyszłej metody FEP. | ||
+ | Chociaż należy wspomnieć, że już Lew Landau [3] podał w swoim podręczniku ''Fizyka statystyczna'' proste wyprowadzenie podstawowego równania wykorzystywanego w FEP już w 1938 roku. | ||
+ | |||
+ | ===Ucieczka of próbkowania boltzmannowskiego=== | ||
+ | Energia swobodna, niezależnie od tego które podejście stosujemy, jest wyliczana jako średnia z pewnych wielkości. | ||
+ | Przypomnijmy, w najprostszej postaci (przedstawionej w artykule [[Energia swobodna]]): | ||
+ | [[Image:F_phi3.png|thumb|center |x40px]] | ||
+ | jest to średnia z energii całkowitej minus wkład entropowy, który też jest wynikiem uśredniania. | ||
+ | |||
+ | Istotnym wymogiem dokładnego wyznaczania różnic energii swobodnej jest odpowiednie próbkowanie przestrzeni konfiguracyjnej. | ||
+ | Oznacza to, że konfiguracje produkowane podczas symulacji muszą dobrze reprezentować nisko-energetyczne stany układu, ale również stany leżące niekoniecznie blisko energetycznego minimum (które, choć mniej prawdopodobne, mają ogromną przewagę "liczebną"). | ||
+ | Jeżeli podczas symulacji nie uda nam się ich dostatecznie przepróbkować przestrzni konfiguracyjnej, uzyskana średnia może drastycznie różnić się od faktyczniej wartości. | ||
+ | Okazuje się, że metody takie jak konwencjonalna dynamika molekularna (MD) czy metoda Monte Carlo (MC), pomimo próbkowania przestrzeni konfiguracyjnej zgodnie z rozkładem Boltzmanna, nie są w stanie osiągnąć wysokiej dokładności estymowanych średnich. | ||
+ | |||
+ | Pod koniec lat 60-tych i w latach 70-tych XX wieku powstały strategie obejścia tego problemu, które sprowadzały się do próbkowania przestrzeni konfiguracyjnej w sposób "nie-boltzmannowski". | ||
+ | Tak powstała metoda Bennetta [4], która jest obecnie najlepszą metodą wyznaczania różnic energii swobodnej z dwóch zestawów punktów, pochodzących z dwóch symulacji, w których ta sama przestrzeń konfiguracyjna była próbkowana na dwa różne sposoby (zazwyczaj nie-boltzmannowsko). | ||
+ | Metoda Bennetta służy w szczególności do łączenia danych uzyskanych z symulacji dla kolejnych okien w [[Umbrella Sampling (US)|US]]. | ||
+ | Warto podkreślić, że nawet ze stosunkowo ubogiego próbkowania metoda Bennetta jest w stanie znaleźć nadzwyczaj dobre estymacje różnicy energii swobodnej. | ||
+ | |||
+ | Inne podejście, opracowane przez Torrie i Valleau [5] w 1977 roku, polegało na zwiększeniu wydajności próbkowania konfiguracji przy nałożeniu potencjału utrzymującego układ w konretnych (niekoniecznie korzystnych energetycznie) części przestrzeni konfiguracyjnej. | ||
+ | Ten dodakowy potencjał sprawia, że próbkowanie nie jest boltzmannowskie, ale osiągane stany lepiej "pokrywają" przestrzeń konfiguracyjną. | ||
+ | Metoda ta, znana obecnie jako umbrella sampling ([[Umbrella Sampling (US)|US]]) jest powszechnie stosowana. | ||
+ | Co ciekawe, zalążek tego podejścia pojawił się 10 lat wcześniej [6]. | ||
+ | |||
+ | ===Pierwsze sukcesy i porażki w obliczaniu energii swobodnej=== | ||
+ | Teoria perturbacyjna doprowadziła do ważnych, nietrywialnych przewidywań, które z kolei znalazły potwierdzenie w symulacjach komputerowych. | ||
+ | Najlepszy przykład stanowi praca Pratta i Chandlera [7], która tłumaczy efekt hydrofobowy. | ||
+ | W miarę jak możliwości obliczeniowe komputerów wzrastały, powstawały nowe metody obliczania energii swobodnej. | ||
+ | Doskonała zgodność teorii i eksperymentu obserowana w pierwszych, modelowych układach umacniała wiarę w wiarygodność uproszczonych potencjałów. | ||
+ | |||
+ | Jednak w przypadku bardziej złożonych układów zaczęto obserwować trudne do wytłumaczenia "zjawiska numeryczne". | ||
+ | Przykładowo, estymacje zależały od tego, w jakim stanie układu kończyła się symulacja. | ||
+ | Oznaczało to, że dłuższa symulacja mogła prowadzić do gorszych wyników. | ||
+ | Był to objaw tzw. quasi-nieergodyczności (ang. ''quasi-nonergodicity''), czyli sytuacji, w której rozległe nisko-energetyczne baseny w przestrzeni konfiguracyjnej połączone są wąskimi gardłami (nazywane w języku angielskim ''entropic bottlenecks''), przez co podczas symulacji możemy nigdy nie zaobserować między nimi przejścia. | ||
+ | Innymi słowy, prawdopodobieństwo, że zaczynając symulację w stanie ''A'', powędrujemy przez wąskie gardło do stanu ''B'' jest bliskie zeru, nawet jeśli symulacja jest (pozornie wystarczająco) długa. | ||
+ | |||
+ | |||
+ | ==Literatura== | ||
+ | |||
+ | # ''Statistical Mechanics of fluid Mixtures'', J. Chem. Phys. (1935), 3, 300, J. G. Kirkwood. | ||
+ | # ''High-temperature equation of state by a perturbation method. I. Nonpolar gases'', J. Chem. Phys. (1954), 22, 1420--1426, R. Zwanzig. | ||
+ | # ''Statistical physics'', Clarendon: Oxford, (1938), L. D. Landau. | ||
+ | # ''Efficient estimation of free energy differences from Monte Carlo data'', J. Comput. Phys. (1976), 22, 245--268, C. H. Bennett. | ||
+ | # ''Nonphysical sampling distributions in Monte Carlo free energy estimation: Umbrella sampling'', J. Comput. Phys. (1977), 23, 187--199, G.M. Torrie, J.P. Valleau. | ||
+ | # ''Machine calculation of thermodynamic properties of a simple fluid at supercritical temperatures'', J. Chem. Phys. (1967), 47, 4766--4772, I. R. McDonald,K. Singer. | ||
+ | # ''Theory of hydrophobic effect''. J. Chem. Phys. (1977), 67, 3683--3704, L. R. Pratt, D. Chandler. |
Aktualna wersja na dzień 12:51, 12 mar 2015
Spis treści
Energia swobodna (metody)
W tym artykule koncentrujemy się na metodach, które stoją na gruncie fizyki statystycznej. Są to metody wolne i nadal niedoskonałe, ale stanowią podejście systematyczne, w którym dążąc do coraz lepszych wyników uczymy się mechanizmów, których używa biologia.
Początki i rozwój
Teoria, na której komputerowe metody wyznaczania energii swobodnej wyrastają, powstała na początku XX wieku i rozwijana jest do dzisiaj. Jednak nawet bardzo uproszczone narzędzia estymacji energii swobodnej długo nie mogły powstać z powodu ograniczeń mocy obliczeniowej komputerów.
John Kirkwood [1] położył podwaliny pod przyszłe metody wyznaczania energii swobodnej - teorię perturbacyjną (FEP) oraz całkowanie termodynamiczne (TI). Posługując się ówczesnymi zdobyczami mechaniki statystycznej, Kirkwood zaproponował koncepcję współrzędnej reakcji, czy też: parametru porządku, tzn. funkcji opisującej przebieg reakcji, którą Kirkwood posłużył się do zdefiniowania zmiany w energii swobodnej między dwoma stabilnymi stanami układu.
Blisko 20 lat później Robert Zwanzig [2] wykorzystał podejście perturbacyjne do wyznaczenia zmian energii swobodnej modelowych atomów, które oddziaływały ze sobą za pomocą prostego, aczkolwiek niefizycznego, potencjału przyciągającego. Rozwinięcie w wysokich temperaturach zaproponowane przez Zwanziga dla prostych apolarnych gazów stało się bazą dla przyszłej metody FEP. Chociaż należy wspomnieć, że już Lew Landau [3] podał w swoim podręczniku Fizyka statystyczna proste wyprowadzenie podstawowego równania wykorzystywanego w FEP już w 1938 roku.
Ucieczka of próbkowania boltzmannowskiego
Energia swobodna, niezależnie od tego które podejście stosujemy, jest wyliczana jako średnia z pewnych wielkości. Przypomnijmy, w najprostszej postaci (przedstawionej w artykule Energia swobodna):
jest to średnia z energii całkowitej minus wkład entropowy, który też jest wynikiem uśredniania.
Istotnym wymogiem dokładnego wyznaczania różnic energii swobodnej jest odpowiednie próbkowanie przestrzeni konfiguracyjnej. Oznacza to, że konfiguracje produkowane podczas symulacji muszą dobrze reprezentować nisko-energetyczne stany układu, ale również stany leżące niekoniecznie blisko energetycznego minimum (które, choć mniej prawdopodobne, mają ogromną przewagę "liczebną"). Jeżeli podczas symulacji nie uda nam się ich dostatecznie przepróbkować przestrzni konfiguracyjnej, uzyskana średnia może drastycznie różnić się od faktyczniej wartości. Okazuje się, że metody takie jak konwencjonalna dynamika molekularna (MD) czy metoda Monte Carlo (MC), pomimo próbkowania przestrzeni konfiguracyjnej zgodnie z rozkładem Boltzmanna, nie są w stanie osiągnąć wysokiej dokładności estymowanych średnich.
Pod koniec lat 60-tych i w latach 70-tych XX wieku powstały strategie obejścia tego problemu, które sprowadzały się do próbkowania przestrzeni konfiguracyjnej w sposób "nie-boltzmannowski". Tak powstała metoda Bennetta [4], która jest obecnie najlepszą metodą wyznaczania różnic energii swobodnej z dwóch zestawów punktów, pochodzących z dwóch symulacji, w których ta sama przestrzeń konfiguracyjna była próbkowana na dwa różne sposoby (zazwyczaj nie-boltzmannowsko). Metoda Bennetta służy w szczególności do łączenia danych uzyskanych z symulacji dla kolejnych okien w US. Warto podkreślić, że nawet ze stosunkowo ubogiego próbkowania metoda Bennetta jest w stanie znaleźć nadzwyczaj dobre estymacje różnicy energii swobodnej.
Inne podejście, opracowane przez Torrie i Valleau [5] w 1977 roku, polegało na zwiększeniu wydajności próbkowania konfiguracji przy nałożeniu potencjału utrzymującego układ w konretnych (niekoniecznie korzystnych energetycznie) części przestrzeni konfiguracyjnej. Ten dodakowy potencjał sprawia, że próbkowanie nie jest boltzmannowskie, ale osiągane stany lepiej "pokrywają" przestrzeń konfiguracyjną. Metoda ta, znana obecnie jako umbrella sampling (US) jest powszechnie stosowana. Co ciekawe, zalążek tego podejścia pojawił się 10 lat wcześniej [6].
Pierwsze sukcesy i porażki w obliczaniu energii swobodnej
Teoria perturbacyjna doprowadziła do ważnych, nietrywialnych przewidywań, które z kolei znalazły potwierdzenie w symulacjach komputerowych. Najlepszy przykład stanowi praca Pratta i Chandlera [7], która tłumaczy efekt hydrofobowy. W miarę jak możliwości obliczeniowe komputerów wzrastały, powstawały nowe metody obliczania energii swobodnej. Doskonała zgodność teorii i eksperymentu obserowana w pierwszych, modelowych układach umacniała wiarę w wiarygodność uproszczonych potencjałów.
Jednak w przypadku bardziej złożonych układów zaczęto obserwować trudne do wytłumaczenia "zjawiska numeryczne". Przykładowo, estymacje zależały od tego, w jakim stanie układu kończyła się symulacja. Oznaczało to, że dłuższa symulacja mogła prowadzić do gorszych wyników. Był to objaw tzw. quasi-nieergodyczności (ang. quasi-nonergodicity), czyli sytuacji, w której rozległe nisko-energetyczne baseny w przestrzeni konfiguracyjnej połączone są wąskimi gardłami (nazywane w języku angielskim entropic bottlenecks), przez co podczas symulacji możemy nigdy nie zaobserować między nimi przejścia. Innymi słowy, prawdopodobieństwo, że zaczynając symulację w stanie A, powędrujemy przez wąskie gardło do stanu B jest bliskie zeru, nawet jeśli symulacja jest (pozornie wystarczająco) długa.
Literatura
- Statistical Mechanics of fluid Mixtures, J. Chem. Phys. (1935), 3, 300, J. G. Kirkwood.
- High-temperature equation of state by a perturbation method. I. Nonpolar gases, J. Chem. Phys. (1954), 22, 1420--1426, R. Zwanzig.
- Statistical physics, Clarendon: Oxford, (1938), L. D. Landau.
- Efficient estimation of free energy differences from Monte Carlo data, J. Comput. Phys. (1976), 22, 245--268, C. H. Bennett.
- Nonphysical sampling distributions in Monte Carlo free energy estimation: Umbrella sampling, J. Comput. Phys. (1977), 23, 187--199, G.M. Torrie, J.P. Valleau.
- Machine calculation of thermodynamic properties of a simple fluid at supercritical temperatures, J. Chem. Phys. (1967), 47, 4766--4772, I. R. McDonald,K. Singer.
- Theory of hydrophobic effect. J. Chem. Phys. (1977), 67, 3683--3704, L. R. Pratt, D. Chandler.