Výzkumníci hledají zcela nové způsoby, jak zajistit růst výkonu procesorů při snížení jejich spotřeby a jak s jejich pomocí vytvořit umělou inteligenci.
Tento článek je překladem z amerického Computerworldu. Úplná verze českého překladu vyšla v CW 1/2005.
Základní výzkum zaměřený na zvýšení výkonnosti počítačového hardwaru a zlepšení funkčnosti softwaru již trvá více než 50 let. Celá řada používaných metod však již dorazila až na samé hranice svých možností — a tak je budoucnost v rukách vědců, kteří se odvážně pustili novými směry.
V oblasti informačních technologií existuje množství nezodpovězených otázek, se kterými se potýkají vědci i ekonomové. Týkají se technického pokroku samotného i společenských problémů jím způsobených. V následujícím textu se zaměříme na výzvy ve třech klíčových oblastech výzkumu IT: výkonnosti procesorů, miniaturizace čipů a umělé inteligence.
Výkonnost procesoru
„V závislosti na rozsahu napětí a jiných faktorech spotřebují procesory Pentium 4 a Itanium 100 až 150 W výkonu,“ dodává Davari. „U budoucích procesorů bychom rádi snížili ztrátový výkon na desítky wattů na jádro procesoru a současně udržli hustotu výkonu nebo ztrátový výkon na plošnou jednotku,“ říká. Uvedená omezení vedou badatele k volbě nových přístupů k růstu výkonnosti procesoru. Patří k nim například umístění několika jader procesorů na jeden čip, ale také nové přístupy k designu čipu.
IBM zde například vyhodnocuje -– a v některých případech již nasazuje –- nové materiály, jako například měď, křemík na izolantu nebo křemík s germaniem. To má vést ke vylepšení výkonnosti, snížení spotřeby nebo dosažení kombinace obojího. „Nové materiály umožňují badatelům vyrábět menší čipy, které spotřebovávají méně energie,“ vysvětluje Davari.
„V naší společnosti pracují výzkumníci s takzvanými materiály s ‘nízkým k‘, což umožňuje více zhustit kovové obvody na čipu bez zvýšení rizika úniku elektrického signálu,“ říká Randy Goodall, ředitel International Semantech Manufacturing Institute. (Podrobné informace o technologii nízkého k — low-k — lze nalézt na webu NASA — nepp.nasa.gov/index_nasa.cfm/934/)
Pro zvýšení ztrátového výkonu testuje IBM chladicí gely, které by zabránily vytváření přehřátých míst na čipu. „IBM se také zabývá myšlenkou vodou chlazených mikroprocesorů,“ říká Davari.
Rychlejší toky
Pro zlepšení šířky přenosového pásma uvnitř čipů pracují výzkumníci v MIT na projektu nazvaném Raw Architecture Workstation Project, při kterém je mnoho sčítacích a odčítacích jednotek umístěno napříč celým čipem, čímž je dosaženo zpracování dat blízké místu jejich uložení; není tedy třeba je posílat přes celý čip,“ říká Anant Agarwal, profesor elektronického inženýrství a počítačových věd v MIT. „Je to jako jít do nejbližších potravin a netrmácet se přes celý okres.“
Mezitím výzkumníci v National Laboratory v Los Alamos i jinde vyvíjejí systémy paralelního zpracování, které by využívaly desítky tisíc procesorů a poskytovaly by až 1 000 bilionů operací s pohyblivou řádovou čárkou za sekundu, a to již v roce 2008.
David Patterson, profesor počítačových věd na Kalifornské univerzitě, věří, že výzkumníci budou schopni zdvojnásobit počet procesorů, které mohou uložit na jeden čip, každé tři až čtyři roky. „Hodně ale záleží na počtu softwarových aplikací, které budou moci jejich výkon využít,“ varuje.
„Programování velkých paralelních počítačů je skutečně působivá práce,“ tvrdí Burton Smith, šéf vědců ve společnosti Cray. „Jak budou během několika nadcházejících let počítače narůstat ze stovek procesorů na desítky tisíc procesorů, bude tento problém dramaticky růst.“
Společnosti Cray, IBM a Sun Microsystems proto vyvíjejí specializované paralelní programovací jazyky. Smith očekává, že Cray brzy dotvoří svůj paralelní programovací jazyk, nazvaný Chapel. Má být k dispozici již v roce 2005 — jako open-source.
Miniaturizace čipů
Dnes je možné vyrobit čipy s prvky o velikosti 70 až 90 nanometrů širokých obsahující stovky milionů tranzistorů.
„V loňském roce vyvinuly laboratoře HP 64bitovou RAM, která zaujímá jeden čtvereční mikron,“ říká Phil Kuekes.
„Jedním ze způsobů, jak se vypořádat s teplem generovaným nahuštěnými součástkami je redukovat napájecí napětí,“ říká Anantha Chandrakasan, ředitel Microsystems Technology Laboratories v MIT. Za posledních deset let byli designéři schopni vytvořit obvody, kterým stačilo napětí 1 volt a Chandrakasan tvrdí, že půlvoltového napájení by měli designéři dosáhnout v horizontu pěti let.
„Jenže pro snížení napětí je nutné také snížit prahové hodnoty zařízení, což způsobuje exponenciální nárůst úniku výkonu,“ říká Chandrakasan. Řešením podle něj může být zvýšení důrazu na řízení toků napájení –- nebo odstavení napájecí sítě v případě nečinnosti obvodu, používání napájecích spínačů na čipové matrici a používání násobných prahových zařízení pro minimalizaci požadavků na napájení.
Tom Theis, ředitel IBM Research pro fyzikální vědy, věří, že další zušlechťování ultratenkého křemíku a ultratenkých izolátorů v branách tranzistorů by mohlo vědcům umožnit zmenšit délky kanálů z asi dnešních 45 nanometrů na 15 –- 20 nanometrů během deseti let. Rovněž očekává nástup vysoce výkonných čipů s 10násobným výkonem a s desetinásobnou kapacitou paměti oproti současným, a to díky využití optických litografických nástrojů, jež mají být rovněž v průběhu deseti let k dispozici.
Umělá inteligence
Výkonnější procesory s nižší spotřebou zřejmě pomohou i k dalšímu vývoji umělé inteligence. Ta se skládá ze 3 hlavních disciplín: zpracování přirozeného jazyka, strojového učení a robotiky. Současné pokroky v těchto oblastech vyústily v komerční technologie, počínaje robotickým vysavačem Roomba a systémy služeb zákazníkům s funkcí rozpoznání hlasu konče.
Ale navzdory těmto úspěchům mají počítače i nadále velké problémy se zvládáním toho, co jsme zvyklí označovat za inteligenci. „Největším problémem je přijít na to, jak zorganizovat počítačové programy tak, aby zdravě uvažovaly,“ říká Tom Mitchell, profesor počítačových věd na Carnegie Mellon University. „Jedete-li autem a na silnici leží pes, budete vědět, že pes odběhne, pokud zastavíte a zatroubíte. Pokud bude na silnici stát koza na řezání dřeva, nezastavíte a nezatroubíte. Takové rozhodnutí počítače udělat neumějí,“ vysvětluje.
Počítače také na rozdíl od lidí jen problematicky chápou kontext, protože jejich znalosti jsou velmi omezené. Díky tomu nemohou systémy založené na umělé inteligenci zpracovávat neúplné dotazy, jako například: „Ukaž mi volné prázdninové resorty na Floridě kolem Vánoc“.
Před několika lety začala firma IBM vyvíjet softwarový rámec, který podporuje kontextově citlivé informace. Ty využívají přístupy založené na optimalizaci, které na rozdíl od tradičních na pravidlech založených systémech mohou zvládat různé dotazy uživatele na informace v kontextu. A to včetně nepřesných nebo neúplných dotazů.
„Na základě své interpretace dotazu uživatele může být díky naší optimalizace dynamicky vytvářena reakce, která je ušitá na míru kontextu uživatele. Lze tak brát v úvahu jeho preference, třeba pokud jde o cenu domu,“ vysvětluje Michelle Zhouová, manažerka pro inteligentní multimediální interakci u IBM.
Zhouová říká, že IBM již mohla začít provádět pilotní pokusy pro ověření konceptu u vybraných zákazníků. Komerční systémy budou podle ní k dispozici za dva až tři roky. Z důvodu ochrany před konkurencí však IBM odmítla poskytnout podrobnější údaje.
„Systémy, které dokáží zvládnout složitější interakce mezi člověkem a počítačem, jako například zpracování žádosti o lístky do kina díky rozeznávání hlasu, by měly být běžně používány během pěti až deseti let,“ dodává Victor Zue, ředitel laboratoře MIT pro počítačové vědy a umělou technologii.
Tento článek je překladem z amerického Computerworldu. Úplná verze českého překladu vyšla v CW 1/2005.