資訊維運的進化從1980年代至2010年代經歷了重大的變革。從數量有限的大型、中型、小型主機,轉變到大量部署的伺服器與虛擬主機。
這個時期,不僅見證了網路設備的多樣化和應用服務系統的豐富多元,還迎來了從10Mb到10Gb的網路速度飛躍。
然而,值得注意的是, 儘管技術飛速發展,資訊管理的方法卻幾乎未見大的改進。
多數情況下,仍依賴人工檢測系統或依靠終端使用者提出的告警來進行管理。
當前的資訊系統監控主要依賴於免費或收費的SNMP協定資料收集器來獲取網路流量和伺服器的基本效能數據,
使用如Mrtg、Cacti、Nagios、NetWorx、Prtg、What's
Up等軟體系統。然而,這些作業系統,包括IBM AIX、HP-UX、SUN Solaris、SCO UNIX、Linux、Microsoft
Server系列等,對於支援多元化的能力有所欠缺。個別的監控系統難以實現對資訊設備之間關聯的全面整合,
更不用說自動化預警系統和即時監控的全面實施了。
面對此情況,需一種能夠整合告警機制與緊急事件遠端控制能力的解決方案,
來提升資訊維運的效率和反應速度。
這樣的系統將使得一位系統工程師能發揮出十人甚至更多人的效率,
快速進入並掌握整合當前資訊環境。
如此,不僅能夠提高管理效率,
還能有效應對各類維運挑戰,這是當前資訊維運系統設計與規範的重要轉折點。
資訊維運1.0時代,大約在1980年代前,是由專屬作業系統主導的時期。
這時代主要的電腦製造商如IBM、HP、王安、DEC等,推出了各自的專屬主機。
而當時的網路連接幾乎是空白。
這個時期的作業系統功能相對有限,軟體應用主要集中在特定的專業領域,
如貿易、會計、製造業和金融等。由於軟硬體設備的數量有限,且多數應用並不對外開放,
資訊維運的工作主要聚焦於應用系統和硬體的維護。
這個時代的使用者數量相對較少,因此,資訊維運面臨的重大問題也不多。
資訊維運2.0標誌著一個新時代的開始,從1990年代開始,開放系統如Unix成為了主流,
許多電腦公司轉而採用Unix作業系統,包括HP 9000、IBM RS600、DEC OSF/1、Tru64等。
此外,隨著IBM PC和Intel x86 CPU的出現,更多的PC Unix主機如SCO Openserver和AT&T
Unix進入市場。
這時期由於主機價格的下降,使用者數量逐年增加,但文字型終端機和印表機仍然是主要的使用者設備。
隨著Microsoft Windows及其伺服器版本Windows
NT的推出,個人電腦(PC)開始普及,成為使用者終端的重要部分。
然而,當時的網路功能相對較弱,大多數外部連線仍依賴撥號數據機(Modem)。
即使網際網路(Internet)、全球資訊網(WWW)和電子郵件(Mail)已經出現,但由於網路寬帶有限,它們的普及程度並不高。
雖然Ethernet已經問世,但由於寬帶限制,網路的普及並未達到高水平。
在這時期,伺服器和網路設備的數量相對有限,在資訊維運上還不會有太大的困難。
資訊維運3.0時代,隨著網路寬頻的提升和網際網路的普及,資訊服務和伺服器應用如雨後春筍般出現,
包括各種伺服器(實體及虛擬)和網路設備。
這一時期,伺服器技術從實體主機進化到虛擬主機,
再到超融合伺服器,有效降低了主機建置的成本。
資訊設備的數量從幾十台急劇增加到數百甚至數千台,
這不僅大大增加了維運的難度,也讓硬體、作業系統、應用系統和網路問題頻繁出現,維運人員面臨前所未有的挑戰。