Tento mladý multidisciplinární obor, jehož počátky sahají do 90. let, je postaven na poznatcích informatiky, biologie a dalších oborů. Kniha je rozdělena do kapitol, které se věnují jednotlivým milníkům vývoje tohoto oboru, k němuž svým dílem přispěl i sám autor.
Principy počítačů
Amos na úvod čtenáře přístupným jazykem seznamuje s vývojem, jenž vedl k nynější éře křemíkových počítačů. Mezi hlavní události předcházející jejich nynějšímu boomu řadí objev dvojkové soustavy Leibnizem (jehož inspiroval čínský I-Ting), mechanický kalkulátor Wilhelma Schickarda, automatizovaný tkalcovský stav Josepha M. Jacquarda (první programovatelný stroj) i analytický stroj Charlese Babbage, který ačkoliv nebyl nikdy plně funkční, předběhl svou dobu o téměř jedno století. Dále vysvětluje principy Booleovy algebry, dotkne se Shannonovy teorii komunikace a nastíní i vývoj od analogových k digitálním počítačům. Nezapomíná přitom ani na relativně neznámá fakta, jako je konstrukce vodního sčítacího stroje, postaveného v roce 1936 v Rusku. Připomíná také vklad velikánů jako Johna von Neumanna nebo Alana Turinga. Exkurz do historie počítačové techniky uzavírá událostmi, jako je vynález tranzistoru, miniaturizace počítačů, Moorův zákon. Nakonec předkládá i problém fyzikálních hranic, na něž miniaturizace čipů naráží a které nutí vědce hledat různé alternativy, včetně biologických počítačů. Dalším motivem pro konstrukci (paralelních) biologických počítačů jsou pak limity lineárních výpočetních systémů, které nejsou vhodné pro některé typy výpočtů.
Vznik bioinformatiky
Mezi nestory oboru počítá již zmíněného Johna von Neumanna, který už ve 40. letech minulého století přišel s návrhem stroje (automatu), který se sám replikuje a nevědomky popsal mechanismus přenosu informací pomocí DNA. Analogie mezi živými organismy a mechanickými stroji (automaty) se ukázala jako nosná a inspirovala od té doby mnoho vědců.
Pro pochopení konstrukce biologických počítačů přibližuje Amos také nezbytné reálie z oblasti genetiky – objev struktury DNA a vynález techniky PCR (polymerázová řetězová reakce) Karym Mullisem v roce 1983. PCR se používá pro hromadné kopírování vzorků DNA a hraje ve světě biologických počítacích strojů podstatnou úlohu.
Dostává se tak postupně k samotné myšlence nasazení molekul DNA pro výpočty a vzniku bioinformatiky. Mezi zakladatelské postavy oboru řadí především Leonarda Adlemana (mimo jiné také spoluautora šifrovacího algoritmu RSA), který jako první v laboratorních podmínkách provedl s pomocí molekul DNA a DNA polymerázy výpočet. Těžil přitom z unikátní schopnosti DNA skladovat informace – jeden bit je v ní uložen pomocí 50 atomů. Podobně polymerázu chápe ne jako pouhý enzym, ale jako abstraktní stroj, který zpracovává řetězce informací. Nicméně samotná myšlenka využití biologických molekul pro stavbu počítačů je staršího data – byla postulována už na počátku 80. let Michaelem Conradem a Efimem Libermanem.
Adleman se pomocí molekul DNA rozhodl řešit klasický optimalizační problém hamiltonovské cesty (HPP), kdy je dána množina měst, které má cestovatel navštívit (pouze jednou) a skončit ve vybraném městě. Adleman tento problém vybral jako vhodný pro pokusné řešení pomocí DNA formou paralelního výpočtu. Ve zkratce: Adleman přiřadil každému městu unikátní DNA sekvenci a pro označení letů mezi jednotlivými městy spojil část sekvence výchozího města s částí sekvence cílového města (a tím určil také směr letu). Po vytvoření příslušných DNA sekvencí (sekvence pro lety a komplementární sekvence pro města) je vložil do jediné zkumavky, kde se pomocí chemických reakcí během jediné sekundy „spočítal“ výsledek. Výpočet proběhl tak, že jednotlivé sekvence kódující města a lety přišly do kontaktu navzájem a tam, kde se mohly části „slepit“ (normální a komplementární), se vytvořil příslušný řetězec Další operací s pomocí enzymu ligázy připravil jeden dlouhý řetězec kódující cestu grafem. Ale současně roztok obsahoval i nehamiltonovské cesty, které bylo třeba odstranit. To provedl tak, že pomocí PCR namnožil jen ty sekvence, které obsahovaly na jednom konci výchozí město a na druhém cílové (s využitím primerů). Z nich pak pomocí gelové elektroforézy vytřídit trasy, které neměly ideální délku, tzn. jejich řetězec byl kratší či delší než příslušná cesta. Z těchto tras musel Adleman ještě vyselektovat ty, které nenavštívily všechna městy, což provedl metodou afinitního čištění. Tím byly splněny všechny podmínky pro provedení výpočtu dle navrženého algoritmu, a získal tak výslednou trasu, kódovanou „vítěznou“ sekvencí, která zůstala v roztoku.
Na tomto jednoduchém příkladě doložil možnost využití biologických molekul pro masívní paralelní výpočty. Teoreticky by tak bylo možné provést výpočet pro jakékoliv množství měst a tras (v tomto případě šlo o 4 města), nicméně v praxi jen tento primitivní výpočet zabral jeden týden — nicméně cílem Adlemana bylo hlavně prokázat, že takový výpočet lze vůbec uskutečnit. Výsledky publikoval v článku v listopadu 1994 v časopise Science pod názvem Molekulární výpočet řešení kombinatorických problémů. Problém HPP nebyl zvolen náhodně, reprezentuje totiž třídu NP-úplných problémů (NPC), které jsou při větším počet uzlů pro stávající, lineárně pracující počítače obtížné řešitelné, resp. doba pro jejich řešení je velmi dlouhá.
V tomto ohledu je důležité si uvědomit, že algoritmus, podle něhož výpočet postupuje, je kódován v sérii manipulací s DNA a samotná DNA zde hraje roli paměti. Adleman tak podle Amyse vytvořil první stroj, který pro své operace použil manipulace s biologickými molekulami, nicméně nejedná se v tomto případě o stroj univerzální. I přesto odstartoval vznik nového odvětví a začala honba za vylepšením tohoto konceptu.
Potom následovalo období poměrně bouřlivého vývoje, kdy se do práce na tomto poli zapojilo vícero vědců. Adlemanům přístup byl použitelný pouze pro problém hamiltonovské cesty, proto mezi další klíčové posuny patřil návrh a realizace výpočtu pro jakékoliv úlohy typu SAT (problém splnitelnosti, Boolean Satisfiability Problem, zkráceně SAT), rovněž patřící mezi NP-úplné problémy. (Obecná forma SAT problému je taková, že máme logický výrok a hledáme takové hodnoty proměnných, pro něž je výrok pravdivý či dokazujeme, že takové hodnoty neexistují.) Mezi SAT problémy, které charakterizuje výpočetní náročnost, patří mnoho úloh z běžného života, např. vytvoření rozvrhu, nejúspornější uložení dat do datových úložišť nebo hry jako sudoku, tetris.
Dalším významným příspěvkem byl postup Richarda Liptona, který chtěl vyřešit problém, jak kódovat exponenciální množství dat za použití polynomického počtu vláken (stavebních bloků), což se mu povedlo, když vymyslel kódování, kde je cesta grafem uložena binárně. Rovněž urychlil závěrečný proces filtrace správných výsledků od nesprávných (nevyhovujících zadaným kritériím). Dalším pokrokem byl návrh z dílny informatika a biologa Paula Rothemunda, jak zkonstruovat univerzální Turingův stroj, pouze s využitím enzymatických operací na vláknech DNA, na který později získal americký patent.
Problémy DNA počítání
Na rozdíl od klasických digitálních počítačů se biologické výpočty zatím vždy uskutečňují v podmínkách, které umožňují přímou interakci molekul provádějících výpočet (tedy v nějakém roztoku), to s sebou přináší řadu problémů, které tvůrci klasických izolovaných integrovaných obvodů řešit nemusí. Patří mezi ně zvýšená citlivost na podmínky provádění výpočtu. Ukázala se tak senzitivita biologických experimentů. Při pokusech se například stalo, že, drobný rozdíl v obsahu minerálních látek v používané vodě změnil průběh reakcí a biologický počítač začal dávat zcela nesmyslné výsledky.
Další potíží, která běžně nastávala, byla separace pomocí magnetických kuliček – ta předpokládá, že se v roztoku v dosahu magnetu objeví příslušná vlákna, která mají být vytažena. Tím si však nemůžeme být jisti, protože pohyb molekul v roztoku je víceméně chaotický. Bylo odhadnuto, že tato metoda má úspěšnost jen 95 %. Při takovéto chybovosti by velký počet opakování nutný pro složitější výpočty vedl ke značné nespolehlivosti metody. Tento problém řešil právě autor knihy se svými spolupracovníky (mj. Adlemanem) tak, že využil odlišnou metodu, kdy pomocí restrikčních enzymů (endonukleázy), ničil během výpočtu nevyhovující vlákna kódující proměnné. Postup vyzkoušeli experimentálně v roce 1997.
Ukázalo se také, že pro reálné aplikace by jakýkoliv biologický počítač musel obsahovat značné množství DNA, které by výpočty činilo ekonomicky nevýhodné a technologicky náročné. Proto na tomto poli, ke kterému se mezitím připojilo několik výzkumníků, došlo k podstatnému ochlazení původního optimismu.
Samotný Adleman se se svým týmem později pustil s úspěchem do řešení SAT úlohy s 20 proměnnými, přičemž prohledávali prostor s více než milionem různých unikátních řešení. Použili k tomu vylepšenou „suchou“ a potenciálně zautomatizovatelnou technologii. Adlemanům SAT stroj obsahoval řadu dalších vylepšení, která výpočet napůl automatizovala a navíc byla vlákna DNA znovupoužitelná, protože při jeho postupu nebyla ničena. Tento problém už nebyl řešitelný jako ty předchozí jen s tužkou a papírem, zde se poprvé projevila výpočetní síla DNA počítače.
Bionanotechnologie
Kromě Adlemanova pokusu se objevilo množství dalších slibných směrů na pomezí informatiky a biologie. Například v roce 1998 publikovali badatelé Winfree a Seeman v časopise Nature metodu, jak použít k počítání růstu krystalů. Laboratorně předvedli, že je možné použít molekulární dlaždice k tvorbě specifických mřížek s programovatelnými strukturami (v nanoměřítku). Dvojdimenzionálních periodická pole DNA dlaždic mohou být sestavena tak, že simulují celulární automaty a jsou schopna provádět logické operace. Senzaci vzbudil také projekt Paula Rothemunda, jenž pomocí molekuly DNA mnohonásobným ohýbáním vytvořil mikroskopickou mapu USA, a ukázal, že je možné takto teoreticky vytvořit jakoukoliv dvourozměrnou strukturu.
Kromě náhrady za klasické elektronické počítače existuje mnoho potenciálních aplikací biomolekul, namátkou v oblasti nanotechnologií a minipočítačů v lékařství, kdy jsou tyto miniaturní stroje umisťovány přímo do těla pro rozpoznání choroby. V tomto směru pokročil nejdále Ehud Shapiro z Weizmannova institutu v Izraeli. S pomocí restrikčních enzymů vytvořil první autonomní výpočetní zařízení z biologických molekul. Pro svůj provoz nevyžadovalo lidské zásahy (manipulaci se zkumavkami, rozdělení vzorku apod.) a reakci provádělo v jediném sledu kroků, kdy předem připravené biologické komponenty jsou umístěny do příslušného média a výpočet potom už „běží“ sám. Cílem bylo vytvoření automatu podle vzoru živých buněk, kde různé enzymy kopírují, opravují a stříhají molekuly DNA i jiné. Jeho automat byl schopen řešit jednoduchou úlohu, rozhodnout na základě přečtení řetězce podle zadaných kritérií, zda tento řetězec splňuje stanovené podmínky (výstup je tedy ve tvaru ano/ne – například, zda vstupní řetězec obsahuje sudý počet znaků). V tomto výzkumu šlo o to prokázat, že lze podobné zařízení sestavit, což se podařilo. V roce 2004 jeho tým navrhl princip stroje, který přímo odhalí choroby a hned vytváří lék (např. vlákno DNA s protirakovinnou aktivitou). Takový stroj se jim rovněž podařilo sestavit – naprogramovali ho tak, aby diagnostikoval molekulární složky, které charakterizují rakovinu prostaty a plic, a následně její nosiče likvidoval vytvářením DNA vláken. To proběhlo zatím ve zkumavce. Možné zavedení do praxe a nasazení těchto automatů v těle pacientů však může trvat ještě desítky let.
V závěrečné kapitole Amos rozebírá další slibné oblasti výzkumu, mezi něž patří syntetická biologie, tedy pokusy o syntézu umělých součástí v živých systémech, „inženýrské“ přetváření přirozených biologických systémů apod. Mezi první úspěchy patří například umělý genetický oscilátor v buňkách, jenž se uplatní uplatnění v genové terapii a biotechnologii, kontrolované biologické obvody či mikrobiální kamera, jež zachycuje obraz pomocí bakterii citlivých na světlo.
Kniha je zdařilým výletem do dosud neprobádaných oblastí na pomezí informatiky a biologie. Je přehledem dosažených výsledků, z nichž mnohé vypadají slibně – především pro praktické využití v medicíně, spíše než pro konstrukci principiálně nových počítačů, které by nahradily ty stávající. Základní teze jednotlivých oborů jsou v ní názorně popsány, tak aby byly snadno pochopitelné i pro ty, kteří daný obor nesledují. Na druhé straně, někdy je snaha o popularizaci spíše na obtíž, protože odvádí pozornost od hlavního tématu. Děje se tak kupříkladu v pasážích, kde Amos podrobně popisuje aféru Jana Hendrika Schöna, který falšoval experimentální data, avšak tato aféra má s hlavním tématem knihy souvislost jen marginální.