Quantcast
Channel: iThome
Viewing all 31461 articles
Browse latest View live

【Google Cloud Next18】Cloud Bigtable以熱區圖找出資料庫效能瓶頸,區域複製正式可用

$
0
0

Google在Cloud Next中,除了發表許多新的產品外,原有的GCP產品也持續更新增添新功能,資料庫服務方面,BigQuery就內建了機器學習推出BigQuery ML。而NoSQL巨量資料庫服務Cloud Bigtable也新增了Key Visualizer測試版,這是一個鍵值存取模式的視覺化工具,而在5月發布的區域複製功能正式可用外,客戶端函式庫也持續新增支援的語言。

這次Cloud Bigtable新增的這個測試版新功能Key Visualizer ,這是一個可以幫助使用者分析Cloud Bigtable使用模式的工具,根據存取的鍵值來生成視覺化報告,幫助使用者分析資料庫使用的狀況。可以幫使用者了解Cloud Bigtable在大規模使用下產生的效能問題,能用在鍵值空間中發現不平衡的存取模式、單列太過龐大或是接受太多的讀取寫入活動,所造成的效能問題。

當使用者的實例中,在過去24小時中的某個時間點,包含至少30GB的資料,或是在過去的24小時中,所有讀取或寫入平均值至少每秒一萬行,則Key Visualizer會自動的每小時以及每天對每一個實例的表格進行掃描。每次掃描都會產出多種不同類型的資料,像是大型熱區圖(Heat Map),能隨時間顯示存取模式,還有熱區圖每個軸的聚合值,包括平均值以及總值或最大值。Google也有提供額外工具,讓使用者了解每次掃描產生的資料。

Key Visualizer提供使用者透過熱區圖觀察資料庫隨時間變化的存取模式,還能查看特定鍵值或是時間範圍所產生的視覺化圖表,或是選擇特定資料行以尋找該行鍵值ID。不過,Google也強調,Key Visualizer展示了不少指標,但並非是影響性能的每一種指標,像是當應用程式與GCP之間存在網路問題,從Key Visualizer是無法知道詳細情況的,因此Key Visualizer並無法用作找出影響效能的關鍵。

除此之外,Cloud Bigtable在5月的時候發布的區域複製(Regional Replication)功能,現在正式可用了。使用者可以輕鬆的跨GCP區域,進行非同步複製Cloud Bigtable資料及,以獲得額外資料的吞吐量、更高的耐用性,以及面臨區域性故障時,擁有額外的備援彈性。

在7月時,Google釋出支援Node.js和C#的在客戶端函式庫,他們也承諾將在幾個月內,繼續推出其他的開發語言支援,包括Python、C++、原生Java、Ruby和PHP的客戶端函式庫。


軟體供應鏈攻擊再起,微軟:小心安裝PDF編輯器卻讓挖礦軟體上身

$
0
0

微軟安全團隊在本周揭露了一場針對軟體供應鏈的攻擊行動,駭客開採了PDF編輯器安裝流程中的漏洞,竄改安裝時所需下載的MSI字形套件,並植入挖礦程式。微軟亦向外界示警:軟體供應鏈已受到駭客的青睞而成為高風險領域。

這起攻擊行動是因遭到微軟安全防護服務Windows Defender ATP攔截而引起研究人員的注意。在這起事件中,駭客建立了一個仿冒PDF編輯器之軟體合作夥伴的伺服器,還複製與代管該軟體合作夥伴所提供的所有MSI檔案,接著竄改其中作為亞洲字體套件的MSI檔案,植入可用來開採門羅幣的挖礦程式。

手法示意圖(來源:微軟)

在架好自己的仿冒伺服器之後,駭客利用軟體供應鏈中的缺陷,影響了PDF編輯器的下載參數,以在安裝編輯器時把MSI檔案的下載連結指向駭客伺服器,把挖礦程式送進使用者電腦上。

微軟並未公布該PDF編輯器的名稱,只說它是Adobe Acrobat Reader的替代程式,也是此波攻擊的受害者,其程式Installer仍是合法且完整的。不過,目前微軟尚不確定駭客所利用的缺陷,僅說不太像是MITM或DNS挾持,但警告該軟體合作夥伴的其它客戶極有可能也會受到波及。

根據Windows Defender ATP團隊的分析,駭客所使用的網域名稱是在2015年於烏克蘭所註冊的,攻擊行動現身於今年的1月到3月間。

事實上,從去年迄今便已出現多起利用軟體供應鏈的攻擊行動,例如有一文字編輯軟體的更新被植入了後門,駭客也在一報稅軟體的更新程序中嵌入Petya勒索程式, CCleaner亦曾出現後門版,今年初駭客還藉由BT用戶端程式MediaGet散布挖礦程式,估計去年至少有7起的軟體供應鏈攻擊,微軟則預期該趨勢將日益增長。

對駭客而言,供應鏈攻擊的好處顯而易見,從供應鏈下手可一次擄獲眾多的受害者,可影響各種軟體及領域,為軟體開發者、系統管理員與資安社群必須共同解決的問題。

Datadog的程序監控服務開始支援Windows環境

$
0
0

提供雲端監控服務的Datadog,現在相容的IT環境也越來越豐富,除了支援公有雲應用程式的監控,近日Datadog也宣布,現在自家平臺的程序監控服務Datadog Process Monitoring也可以支援Windows環境了

Datadog表示,執行微軟作業系統的伺服器,在企業組織內仍然占有相當比例,因此,提升Windows環境的可視度有相當需求。現在只要是Windows Server 2008(包含)以後版本的作業系統,Datadog的程序監控服務都可以支援。

在去年底,Datadog就釋出了即時程序監控功能,讓系統管理員可以掌握基礎架構環境中各項資源的使用量。系統每兩秒鐘,就會自動更新目前基礎架構的各項資源使用情況,基本資訊包含處理器、記憶體的使用量,而想要觀察更細節資訊的使用者,Datadog也可以列出每一個系統程序所消耗的資源。而IT環境混合使用Linux、Windows的開發者,Datadog可以在同一儀表板上,同時呈現這兩個異質環境的概況,提高企業IT監控的整合度,單一平臺就可以通吃兩個環境。

在Windows環境的程序監控中,使用者可以利用Process owner作為過濾條件,隔離出每個使用者的資源空間。或者,以Process name、字串進行搜尋。而將應用程式部署在多主機環境的企業,該服務可以利用標籤、主機ID、服務區等資訊,作為分類條件,聚合不同來源的數據,讓系統管理員可以更簡單進行跨環境監控。除了即時監控,在整合Windows環境監控時,Datadog也提供使用者瀏覽過去Metrics的功能。

而現在已經導入Datadog監控解決方案的企業用戶,可以將Windows程序監控加入既有的儀表板。該公司也讓Live View與儀表板間的切換變得更快速,只要點擊滑鼠,就能在這兩者不同的監控視角切換。

而想要在Windows環境使用Datadog程序監控服務的使用者,其環境的Agent必須更新至第6版,透過網頁介面的Agnet管理工具,使用者就可進行更新。當Agent更新完組態設定後,必須重啟Agent。接著,Windows主機就可以列入Datadog的監控範圍內。

IT環境混合使用Linux、Windows的開發者,Datadog可以在同一儀表板上,同時呈現這兩個異質環境的概況,提高企業IT監控的整合度,單一平臺就可以通吃兩個環境。只要是Windows Server 2008(包含)以後版本的作業系統,Datadog的程序監控服務都可以支援。圖片來源:Datadog

而將應用程式部署在多主機環境的企業,該服務可以利用標籤、主機ID、位在服務區等資訊,作為分類條件,聚合不同來源的數據,讓系統管理員可以更簡單進行跨環境監控。圖片來源:圖片來源:Datadog

而現在已經導入Datadog監控解決方案的企業用戶,可以將Windows程序監控加入既有的儀表板。該公司也讓Live View與儀表板間的切換變得更快速,只要點擊滑鼠,就能在這兩者不同的監控視角切換。圖片來源:Datadog

【Google Cloud Next18】無伺服器NoSQL雲端資料庫Firestore將向後相容Datastore

$
0
0

將於今秋問世的Cloud Services Platform,無伺服器服務作為支援該混合雲解決方案的重要部分,Google除了釋出無伺服器工作負載管理平臺Knative,同時也強化了PaaS平臺App Engine與事件驅動無伺服器運算平臺Cloud Functions等原有的服務。

另外,Google用來幫助開發者快速生產高品質行動應用程式的平臺Firebase,其用於行動、網頁與伺服器開發的無伺服器NoSQL資料庫Cloud Firestore,Google宣布即將在GCP控制臺新增使用者介面,讓更多用戶存取這個測試版服務。另外,Cloud Firestore將在數周後支援Datastore模式。

Cloud Firestore目前仍是測試版,為全託管原生雲端無伺服器的NoSQL文件資料庫,被Google定位成Cloud Datastore的下一代接班人,目標提供簡單的儲存、同步與查詢等資料庫操作方法,支援全球行動、網頁以及物聯網應用程式。由於得力於GCP基礎架構的加持,Cloud Firestore具備強健的彈性與可擴展性,能根據應用程式的負載,自動水平擴展或是縮減規模,其內建安全性存取控制,使用者能透過組態語言處理資料驗證的問題。

與Firebase即時資料庫(Realtime Database)相似,Cloud Firestore可透過即時Listener與離線支援,在不考量網路連線品質的狀態下,無縫同步資料。Google強調,當後端資料變更後,Cloud Firestore能為開發者的應用程式,提供近乎即時的同步能力。這個能力不只方便開發多使用者應用程式,同時也代表單一使用者可以在不同裝置上使用相同的應用程式。

而Cloud Firestore也支援完整的離線功能。即便在離線狀態,使用者仍可以存取或是變更資料,而這些改變將會在裝置或是服務重新連線後進行同步。離線同步支援利用了本地端的快取以提供無縫資料服務,而這也讓應用程式即使在失去網路連線後,仍然保有回應能力。

Google宣布數周後為Cloud Firestore提供的Datastore模式,將讓原本使用Cloud Datastore服務的應用程式,能夠完整相容Cloud Firestore,這樣的升級帶來99.999%的SLA,實體群組將不再有每秒寫入限制,也解除跨實體群組的交易限制。開發者可以讓行動或是網頁客戶端直接存取Cloud Firestore,而不需要設置中介伺服器來管理資料存取,達到真正的無伺服器狀態。

Cloud Firestore相容於Datastore API與現存的客戶端函式庫,因此在即將上線的Datastore模式,開發者不需要對應用程式進行任何更新,便能無痛使用Cloud Firestore。Google提到,在Cloud Firestore正式可用後,官方會透明的遷移原本使用Cloud Datastore的應用程式到Cloud Firestore後端。

 

 

ACLU指Amazon人臉辨識技術準確率不足,竟將28名國會議員當成罪犯

$
0
0

美國公民自由聯盟(American Civil Liberties Union,ACLU)在本周公布了一項針對Amazon Rekognition人臉辨識系統所進行的實驗結果,ACLU建立了2.5萬名罪犯的人臉資料庫,再以535名美國國會議員的照片進行比對,發現Rekognition將28名國會議員辨識為罪犯,錯誤率達5%。

ACLU一向積極反對Amazon的Rekognition人臉辨識服務,認為假設執法機關使用了Rekognition,即有可能造成警方的偏見,進而危及人民的自由與生命。例如日前舊山金有一名警員攔下了一輛由黑人女性駕駛的汽車,將她戴上手銬且逼她在槍口前下跪,結果是車牌自動辨識系統出錯了,以為那是遭竊車輛。

ACLU還認為人臉辨識將威脅美國憲法第一條正案所保護的各種行為,包括參與抗議集會、實踐宗教信仰,或是被政府濫用以對抗移民者。

ACLU使用美國國會議員的照片來比對罪犯人臉資料庫的用意之一應該是想要藉此督促國會正視此事,以暫時阻止執法機關採用人臉辨識技術。

不過,根據Amazon向紐約時報所提出的聲明,ACLU採用了Rekognition的預設值,它的信心門檻為80%,適用於企業用來比對員工與工作證上的照片是否相符,而Amazon推薦執法部門使用的卻是信心門檻高達95%的設定,以降低錯誤的可能性。

此外,Amazon還強調Rekognition只是用來協助縮小範圍,人們還是可以運用自己的判斷能力來考慮可能的選項。

DevCore顧問蔡政達揭露不同軟體處理字元差異,駭客能藉此存取網站重要資料

$
0
0

一般來說,對於系統弱點的控管,我們可能都會從個別軟體下手,而軟體開發廠商也只集中留意自己推出的產品中,是否出現能夠被拿來利用的弱點,然而,隨著實務上多種軟體的搭配運用,不同軟體之間的字元處理方式的差異,駭客可能得以長驅直入。戴夫寇爾(DevCore)顧問蔡政達在今年的HITCON #14大會上指出,利用Apache、Nginx、Tomcat等網站伺服器的常用軟體中,對於特殊字元識別方式的不同,便能藉此找到管理後臺登入頁面,或是存放密碼的檔案等,呼籲網站管理者要採取較為嚴謹的做法,像是隔離後臺應用程式、管理主控臺,並且檢查代理伺服器和後臺伺服器之間的互動行為。

為了要讓多種軟體之間的能夠協同運作,人們採取了共通的標準,藉此能夠得以保護這些軟體,在搭配運作時,不致產生問題。然而,蔡政達表示,雖然這樣的措施確實達到了上述的目的,但還是仍有其不一致的地方。加上現在講求快速開發,同樣的問題也會隨著程式碼被沿用,而在更多系統上出現。

【Google Cloud Next18】發表非營利組織支援計畫Data Solutions for Change

$
0
0

Google在Cloud Next大會上宣布了Data Solutions for Change倡議計畫,這將讓非營利與非政府組織,獲取更多的資料分析資源,Google要讓這些組織在不需要擔心基礎設施的情況下,盡可能的使用資料分析以及機器學習技術,達成公益目標。

不同性質的企業以不同的方式執行各自的企業社會責任,而Google作為一間科技公司,則一直以來提供這些非營利組織需要的資訊服務,Google提到,他們從2007年開始,就一直為全球的非營利組織和非政府組織提供雲端運算技術,這些包括Google Earth Outreach計畫、非營利組織的G Suite、GCP公開資料集與Kaggle Data Science for Good Events。而接下來他們將以新計畫Data Solutions for Change,透過資料分析與機器學習,繼續擴展非營利計畫。

這個計畫為協助組織提供三個福利,想參與計畫的人可透過申請來獲得長達6個月,每月最多5千美元的補助,使用Qwiklabs Inc.的自我培訓課程,以及基於角色的支援權利。

Google雲端產品行銷副總裁Carol Carpenter提到,現今的非營利組織以前所未有的規模收集與存取資料,他們之中有許多人試圖以資料驅動的方法解決問題。與企業中的資料科學家一樣,非營利組織也透過收集資料來進行疾病偵測,或是提出假設,透過資料來驗證這些假設。

而透過Data Solutions for Change,Google為非營利組織提供先進的資料分析技術,以進一步正面影響社會與環境。Carol Carpenter強調,現在這些組織還可以使用GCP上全託管的資料倉儲BigQuery服務,也能以人工智慧建置大規模快速的應用程式,並以Google Data Studio來視覺化這些在BigQuery上的分析。

Google提到了,現在精準醫學基金(Foundation for Precision Medicine)就正使用Google的機器學習技術,來預測人們是否罹患阿茲海默症,透過百萬匿名的病患,從中發現了趨勢以及模式。而該基金會過去面臨最大的問題便是財務以及技術資源,在與Google合作前,他們僅有數臺筆記型電腦以及一臺內部伺服器,這樣的規模用來分析數百萬病患的資料,顯然非常吃力。

精準醫學基金首席資料官Ayin Vala提到,他們有很好的主意,但是欠缺足夠的規模來實現,而BigQuery徹底改變他們的工作,由於比原本內部使用的伺服器速度快了百倍,也就是說他們可以多分析百倍大的資料集,透過查詢更完整的資料集,有餘力對各種變量進行測試,也使得演算法更加準確。Ayin Vala表示,開始採用GCP後,他們的研究資料團隊現在可以花費多達70%的時間在科學探索上。

 

 

被譽為中國第三大電子商務市集,「拼多多」登上那斯達克首日大漲40%

$
0
0

在中國被譽為僅次於阿里巴巴與京東的第三大電子商務市集「拼多多」(Pinduoduo)在本周四(7/26)於美國那斯達克股市(Nasdaq)掛牌上市,發行價為19美元,預計募資16.3億美元,上市首日股價即大幅上漲40.53%,以26.7美元作收,市值突破130億美元。

甫於2015年創立的拼多多藉由微信發布低價的團購訊息來建立流量,被視為新興的社交商務平台,根據該公司提交給美國證券交易委員會的文件,拼多多在成立第二年的營收為7430萬美元,2017年即成長了3倍,達到2.78億美元。

不過,拼多多的營運目前仍處於虧損狀態,2016年虧損了4300萬美元,去年則虧損8370萬美元,今年第一季也虧損3200萬美元。

拼多多創辦人為現年38歲的黃崢,於美國威斯康辛大學麥迪遜分校取得計算機碩士學位,並在2004年加入Google,2007年離開Google之後即著手創業,從手機電商、電商營運商到遊戲公司,拼多多則一直到2015年才問世,隔年拼多多即獲得騰訊投資。

拼多多最主要的號召力為低價商品,於競爭激烈的中國市場殺出一條血路,鼓勵買家透過社交網路分享產品資訊或邀請親友共同參與,以享受低價的團購優惠。根據統計,去年底該平台活躍的買家數量為2.45億人,今年6月底則成長至3.44億人。

紐約時報則分析,拼多多有許多不可思議的低價商品,例如一條有彈性的褲子不到3美元,5公斤的米不到4美元,4條四角褲只要2美元,還有些商品的品質低劣到拿到手就能毫不猶豫地丟掉;五花八門的商品、超低的價格,再加上大量的折扣與優惠活動,消費者到拼多多並不像是在購物,反而更像是在玩購物的視頻遊戲。

儘管拼多多在上市首日交出了亮眼的成績單,但有分析師認為,以拼多多目前所吸引的用戶特質與低品質的流量而言,該公司的前景值得觀察。


中國不放行,高通放棄470億美元的NXP收購案

$
0
0

在2016年10月宣布將以470億美元買下荷蘭恩智浦半導體(NXP Semiconductors)的高通(Qualcomm)在周四(7/26)宣布終止這項併購案,且即刻生效,讓延宕了21個月的收購案草草收場。NXP當天股價立即反應了此一消息,下跌5.65%,以92.81美元作收。

高通原本希望藉由收購NXP將觸角從原本的行動裝置擴充到混合信號晶片、微控制器、車電、網通與安全等領域,強化高通於物聯網的實力,該併購案需要通過9個市場之監管機關的許可,包括美國與歐盟等,而最終只有中國不放行。

NXP表示,該公司在周四收到高通的併購終止通知,理由是已屆雙方合約中所規定的交易期限,卻仍無法獲得中國國家市場監督管理總局的同意。高通也將支付2億元的合約終止賠償費用予NXP。

當初高通是宣布將以每股110美元的現金買下NXP股份,當時NXP的股價約為98美元,之後NXP的股價即往上攀升,周四的股價是NXP這21個月以來的最低點。

NXP執行長Richard Clemmer表示,除了宣布50億美元的股票收購計畫以安撫投資人以外,還向分析師透露,這次的經驗讓他在短期內不會再考慮任何的重大交易。

美國媒體認為中國的阻攔與中、美之間的貿易戰火有關。甚至連美國財政部長Steven Mnuchin都發言表示,對於該交易沒有得到批准感到很失望,他們只是希望美國業者能夠被平等對待。

Oath在台成立亞太研發中心,年底前招募近百名人才

$
0
0

Verizon去年買下Yahoo核心業務,並與AOL合併為Oath後,Yahoo正式走入歷史,並成為Oath旗下網路服務品牌之一。在今天(7/27),Oath加碼對台灣的投資,宣佈將成立亞太研發中心,今年內將招募近百位人才,涵蓋AI工程師、軟體研發、產品管理、產品設計四大類。

Oath目前在美國、印度、愛爾蘭等地均設有研發中心,在Yahoo時代,台灣原本就有研發團隊,負責Yahoo全球服務在地化,依台灣市場需求開發新服務,過去Yahoo! News平台的開發即交由台灣的研發團隊負責。

Yahoo加入Oath一年多,此次Oath在台宣佈成立亞太研發中心,全球技術長Atte Lahtiranta來台表示,台灣在亞太地區是重要的市場之一,並且擁有優秀的工程人才,因此選擇在台灣設立亞太研發中心,負責亞太地區的技術研發工作。

過去在Yahoo時代擔任技術長,現為Oath亞太區產品及研發工程部暨電子商務營運管理事業副總裁林振德補充說明,除了市場的重要性及人才,在台設立亞太研發中心也和Yahoo工程團隊優秀表現有關,除了Yahoo! News,台灣的工程團隊將Yahoo TV推向香港,開發電競相關服務,並負責紐、澳的產品研發,因此總部決定在既有的工程團隊基礎上擴大成立亞太研發中心。

原有的工程團隊佔Oath台灣公司的1/3,約有300多名,包括來自英國、法國、印度、馬來西亞、中國、香港等地的員工,未來亞太研中心再招募近百名人才後,亞太研發中心將成為Oath在海外最大的研發中心。

林振德表示,Oath亞太研發中心未來將會負責亞太地區的工程研發,直接支援日本、香港、紐澳等地的產品研發,也會與擁有資料中心的新加坡團隊合作,由新加坡扮演東南亞市場需求的Hub,集合印度、菲律賓等東南亞地區的當地市場的需求。

Oath在整併Yahoo的網路核心業務及AOL的內容資源,挾著龐大的全球網路及內容資源,全球已有10億使用者,將以2020年成長至全球20億使用者為目標。

 

面臨日漸嚴重的資安威脅,政府將打造資安學院培養人才,以架構更健全的臺灣資安生態

$
0
0

乍聽之下,挨打不是什麼好事,但如果受害人能正向看待,因此進而勤練防身術,強身後得以因應日後的攻擊,便是化危機為轉機。而國內的資安態勢也是如此,在今年HITCON #14大會中,行政院資通安全處處長簡宏偉表示,資安的威脅越來越嚴重,固然是極大的危機,但若是透過提供相關所需的服務,發展出臺灣資安的生態系統,就是比較積極的思維。不過首當其衝的前提是,臺灣資安人員的嚴重短缺,因此政府打算成立資安學院來培育相關人材。

簡宏偉指出,在資安情勢上,我們面臨了物聯網裝置資安弱點威脅升高、關鍵基礎設施資安風險倍增等情況。他特別指出,整體攻擊手法也有所變化,例如,隨著法規的要求,政府機關的事件處理機制越來越完善,駭客近年來轉向提供公部門相關資訊服務的廠商下手。

然而,簡宏偉表示,他們在處理重大事件的通報時,也留意資安人才嚴重短缺的情況。他指出,以目前能從臺灣教育體系產生的資安專業人員,一年大約是50人,然而光是政府單位一年就有500人的需求。因此,他們想要以公部門與企業的資安需求為導向,推出資安人才培訓體系,其中最重要的便是設置專屬機構,也就是成立資安學院。這個學院不只會提供相關的課程和認證,也會與業界合作,提供人才的媒合的功能。

【網路世界徹底提升資安的自保之道】防護無邊界,零信任才能夠真安全

$
0
0

【網路攻擊成為全球第三大風險】世界經濟論壇在今年1月發布的全球風險報告當中,網路攻擊(Cyberattacks)首度進入前五大可能性風險(名列第三),而緊接在後的資料詐騙或盜竊(Data fraud or theft),也和當前資安威脅的猖獗有密切關係。而在衝擊最大的全球風險當中,網路攻擊名列第六。(圖片來源/世界經濟論壇)

進入數位化、網路化的時代,信任是許多系統得以運作、資訊能夠互通、交易可以進行的基礎之一,隨著各種技術的演進,服務的可用性(Availability)和易用性(Usability)也持續提升,如何確保安全性,卻一直都是難題,而且越來越難以處理,甚至已經嚴重威脅現實世界的正常運作。

根據世界經濟論壇發布的2018年全球風險報告,在十大造成嚴重衝擊的風險當中,網路攻擊(Cyberattacks)排名第六;而十大可能產生的重大風險裡面,網路攻擊首度進入前三名,僅次於極端氣候事件與國家級災難,而第四名是資料詐欺或竊取,也和資安密切相關。

事實上,資安威脅實在太多,不勝枚舉,就算興起之後、面臨衰退,過了一陣子之後,往往又復甦、進化,或混雜在其他威脅當中使用,令人防不勝防。

但總體而言,這些威脅之所以能夠橫行,可歸結於新興科技的迅速崛起與普及,例如,雲端服務、行動應用、物聯網,而且,影響鋪天蓋地而來,個人與企業都難以抗拒,而無法置身事外;同時,也因為大開方便之門的關係,橫跨內外部的威脅,像是:資料外洩、DDoS、APT、特權帳號濫用等,也都源源不絕,難以徹底斷絕。面對這樣的局勢,資訊安全的確到了草木皆兵、四面楚歌的地步,我們不知道該相信什麼,正是當前的寫照。

邊界不復存在的內部網路環境

在傳統網路安全架構設計當中,位於內部的使用者與應用系統,普遍被視為可信任的狀態,因此,較少實施驗證和檢核機制。然而,時至今日,使用者與應用系統執行的位置遍及各處,甚至已經沒有內外之分,此時,我們看待資安防護時,應該採取持續驗證、不輕易信任的態度。(圖片來源/Akamai)

 

資安思維大轉變:從信任到零信任

過去以來,IT業界為了強化資訊安全,已投入許多資源,設法提升用戶的信任。若要追溯這些努力的源頭,要先從微軟談起,他們在2002年開始提倡信賴運算(Trustworthy Computing)。

當時,該公司的作業系統Windows NT 4.0、Windows 2000因為本身的漏洞遭到濫用,而深受Code、Nimda、Blaster等網路蠕蟲攻擊所苦,因此,他們痛定思痛,積極強化作業系統與其他軟體的安全性,於是,自Windows XP SP2開始,內建Windows Firewall、Windows Update自動更新,並推動軟體開發生命週期(SDL)的安全性工程。

微軟後續在Windows Vista與Windows Server 2008當中,所內建的使用者帳戶控制(UAC)以及網路存取防護(NAP)也都是基於這樣的理念,所發展出來的安全性特色。

除了微軟,AMD、HP、IBM、Intel與微軟也在2003年合作,成立了信賴運算組織(TCG)他們促進了幾種廣為人知的安全技術發展,像是;越來越多個人電腦與伺服器內建的信任運算模組(TPM)、提供網路存取控制功能的信任網路連線(TNC),以及套用在硬碟本身加密應用的標準規格(SED)

在那幾年期間,分層防禦(Layered Defense)及縱深防禦(Defense in Depth)的概念相當盛行,讓網路存取控制(NAC)的應用方式受到矚目,市場上,也出現不少協同防禦的產品。

之後,隨著伺服器虛擬化平臺與雲端服務的竄起,軟體定義式防護與雲端安全產品,也開始陸續浮上檯面,可在這些當時這些非典型的網路應用環境當中,支援資安防禦策略的實施。

例如,資深的網路防火牆廠商Check Point,在2014年推出Software Defined Protection,以及伺服器虛擬化平臺廠商VMware於2011年發布的vShield,以及2012年併購網路虛擬化廠商Nicira而取得的NSX,都能提供網路分區隔離(Network Segmentation)功能,藉此降低內部網路受到橫向攻擊的可能性,而在大型公有雲服務當中,也具備多種網路分區機制,以AWS而言,在Amazon VPC裡面,就提供子網路、安全群組、網路存取控制清單(NACLs)。

到了2009年,研究機構Forrester首席分析師John Kindervag提出了新的資安模式,稱為零信任(Zero Trust Model),當時受到很大的關注,不過,初期積極響應的資安廠商並不多,主要是以次世代防火牆聞名的Palo Alto Networks。到了2015年,Forrester發現相關應用領域逐漸拓展的現象,涵蓋了虛擬化網路基礎架構(VNI)與網路指揮調度解決方案(Network orchestration solutions)。在2016年第四季,他們將基於零信任概念的威脅減緩技術,大幅增加到20種。

然而,Forrester在今年1月發布的報告當中,又重新歸納了一次零信任的產品類型與對應廠商。他們將這些部分定調為延伸生態系,並且區分為零信任平臺、安全自動化與調度指揮、安全透視與分析,以及人員、工作負載、資料、網路、連網設備等安全層面,而「人員」的部分,又細分成互動過程與身分管理,「網路」則專指網路分區隔離。

網路隔離是零信任模式較常見的架構

在2010年Forrester開始倡議零信任模式之際,他們也設計了一套基於這個理念而成的零信任網路架構,當中包含了整合多種控制與防護功能的網路隔離閘道(SG)、依據不同作業屬性而區分成多種隔離區的微核心與邊界(MCAP)、負責的集中管理機制的伺服器,以及負責收集與分析網路流量的資料擷取網路(DAN)。(圖片來源/Forrester)

 

零信任的基本精神:不論信任與否,一律要通過驗證才算數

到底什麼是零信任?為何越來越多資安廠商都擁抱這個概念?簡而言之,在零信任的網路環境,所有網路流量都是不可信任的,因此,資安專業人員須驗證與保護所有資源,限制與嚴格實施存取控管,並檢測與記錄所有網路流量。

根據John Kindervag在2010年對於零信任網路架構的詮釋,他提出下列三個核心的概念:(一)在安全設備上,不再有信任與非信任的介面;(二)不再有信任與非信任的網路;(三)不再有信任與非信任的使用者。

若將零信任模式擴大到資訊安全的層面來看,John Kindervag提出三個基礎的概念:(一)不論身在何處,須確保所有資源都是以安全的方式存取;(二)採用最低權限的策略,並且嚴格實施存取控制;(三)檢測與記錄所有流量。

而在上述概念裡面,我們必須假設所有網路流量都是具有威脅的,除非它們通過自家的資安團隊驗證,確認取得合法授權、通過檢測,並且受到保護,否則就不予以信任。舉例來說,內部與外部網路之間的資料存取,經常會運用加密通道來保護,相對地,網路犯罪份子可輕易偵測到未加密的資料,因此,資安專家對於內部資料存取的保護態度,須與網際網路的外部資料存取一致。

在存取行為的管理上,零信任模式也將運用更多方法來驗證、減害。

過往我們仰賴的作法,主要是基於使用者角色的存取控制機制(RBAC)而成的防護,並且普遍用於網路存取控制、基礎架構軟體,以及身分與存取管理系統。若是採用零信任的模式,RBAC將不會是唯一方法,重點在於配置最低的存取權限,以及施行精確的存取控制,以便減少遭到攻擊與濫用的影響程度。例如,根據使用者表明的身分,適當分配存取的資源,而且僅限於他們執行這些工作所需範圍,使他們只能做正確的事情,而非盲目相信使用者,並未考慮因故意或疏忽而導致為非作歹的可能性。

當然,天底下沒有十全十美、天衣無縫的限制,為了更進一步確保事情是否做對,並且及早掌握出錯的狀況,我們還需要做到持續檢測與記錄,舉例來說,須具備網路流量活動的分析與透視能力(NAV),而且是檢測與記錄能夠一起進行,以主動、即時的方式來處理所有網路流量,並非被動、延遲一段時間才處理,而且僅針對內部網路流量。

為了達到這樣的要求,零信任模式對於網路流量分析與透視,也特別定義出應具備的特性,例如,可彈性擴充使用規模,以及持續執行的態勢感知能力,並且包含網路探查(尋找與追蹤資產)、流向資料分析(解析流量模式與使用者行為)、封包擷取與分析,以及網路詮釋資料分析(解析網路串流封包)、網路鑑識(協助突發事件反應與犯罪調查)

而在零信任架構的設計上,John Kindervag認為,需要搭配四個元件,分別是:網路分區閘道(Network Segmentation Gateway,SG)、微核心與邊界(Microcore and Perimeter,MCAP)、集中管理,以及資料擷取網路(Data Acquisition Network,DAN)

其中的SG,將包含原本分散在多種資安產品的功能,像是防火牆、網路入侵防禦系統、網站應用程式防火牆、網路存取控制、內容過濾閘道、VPN閘道,以及其他加密產品,而且深入整合到網路層級,同時,SG也將內建封包轉發引擎,使其能夠建置在網路的中心。資安人員可以在SG裡面定義通用的控管政策,而且必須配置多個高速網路介面,以便承擔龐大的網路流量處理作業。

這裡的SG和我們所熟悉的UTM設備相當類似,不過,John Kindervag表示,UTM著重的部分,在於網路邊界的控制,SG所要部署與針對的位置,卻是在網路的中心。

MCAP則為各個網路分區,它們是連接到SG與其他設備的網路介面而形成的交換區(Switching Zones),這些區域裡面設置了專屬的微核心交換器,共用同樣的功能與政策控管屬性,而使得每個隔離區成為一個微邊界(Microperimeter)。資安人員可以透過匯聚所有MCAP裡面的交換器,形成統一的交換網路,達到集中管理的目的。

而所謂的集中管理,是指網路的後端平臺(backplane)的處理作業,可由透明、統合的MCAP總體管理機制來定義,而且,須由原本基於個別元件的命令列操作方式,提升為集中化、更易於使用的管理系統。

至於DAN的設置,則是為了突顯擷取網路資料的重要性,本身也是一種MCAP,裡面可部署安全事件管理系統(SIEM)、網路分析與透視工具(NAV),負責集中擷取、分析與記錄所有的網路流量。

利用這樣的網路區域,我們能處理通過SG的所有流量,包含連結所有MCAP的部份——透過鏡射與轉送流量的作法,有效收集其中傳輸的封包、Syslog、SNMP等訊息,並且存放到單一位置上,以便後續執行網路流量的檢測分析,達到近乎即時處理的要求。

攻擊來自四面八方,邊界畫分需更細緻

在零信任模式當中,看待威脅進犯位置更周延。就像保護總統安全,需注意保護對象的身分、位置,以及能接近的人員;而邊界控管需設立多層區隔,如外圍的柵欄與軍警,而在總統坐車旁,有特勤環繞,形成微邊界防護,還要提防遠端狙擊,做好端點控管。(圖片來源/Palo Alto)

 

基於零信任模式的應用程式控管策略

基於動機的不同,威脅程度高低也隨之變化,然而,不論是惡意或善意,端點裝置與應用程式都有可能成為威脅,因此,對付不同程度的威脅,可運用黑名單與白名單來控管,而在相對較正常、合法的端點與應用程式當中,我們可以運用隔離、強制套用最低權限的存取方式來實施保護。(圖片來源/Symantec)

 

零信任模式開始大幅擴張,更多層面均可適用

在Forrester起初發布的零信任研究報告裡面,對於網路架構的部份著墨甚多,再加上網路分區隔離的確在此扮演非常關鍵的角色,因此,近年來,每當談到採用這樣概念的產品類型,大多數人都會聯想到次世代防火牆,然而,零信任不單是網路隔離,而是整體的防護策略,涉及處理流程與技術,所以,Forrester近幾年在闡述零信任模式時,不再局限在網路,而是延伸更多防護層面。

例如,今年初,他們特別提出零信任延伸生態系統(Zero Trust eXtended Ecosystem)的概念,將零信任模式拆解開來,以資料為中心,周邊圍繞著人員、設備、網路、工作負載等四個環節,並運用網路透視與分析、自動化與調度指揮等技術來貫串。

認同與重視零信任的企業變多,Google與Netflix都已開始採用

除了長期提倡這個概念的研究機構,對於市場觀點有了重大的改變,零信任模式近期受到很大的矚目,其實,還有幾個原因在推波助瀾。

其中一個,就與Google有關。該公司資訊長Ben Fried在2014年公開表示,大型企業應建立「零信任」基礎架構。Google也在這一年,發布研究論文〈BeyondCorp: A New Approach to Enterprise Security〉,後續又發布多篇探討BeyondCorp概念與實作的論文。

而從2017年起,Google在這套自家發展的零信任安全框架,具體提供了新的雲端服務,並且開始積極向外宣傳,例如,在Google Cloud Next大會上,發表了Cloud Identity-Aware Proxy(Cloud IAP),讓用戶能夠建置BeyondCorp描述的內容感知型安全存取環境;此外,他們也連續兩年前往全球矚目的資安大會RSA Conference,主講BeyondCorp。

對於這項從2011年開始進行的研究計畫,Google很自豪,號稱能讓大部分員工每天在不受信任的網路環境下,無需運用VPN的防護,也能安全工作。

除了Google,最近,我們還看到另一家建置零信任架構的網路公司,那就是知名的線上影音業者Netflix。

在今年初的Usenix Enigma大會,該公司資深安全工程師Bryan Zimmer公開介紹他們的零信任架構,稱為無關位置的安全途徑(Location Independent Security Approach,LISA)當中包含三大基本原則:(一)是否信任的關鍵,在於使用者身分與端點健康狀態,而不是所在位置;(二)對於辦公室網路,不能信任;(三)設備要隔離。

長期而言,為了提升整體安全防護,應該會有更多組織,加入施行零信任模式的行列,隨著新一波數位轉型浪潮的持續推動,應用系統與服務的運作,勢必走向更加開放的環境,如果再繼續沿用傳統的二分法(內部、外部,信任、不信任)來界定資訊安全的保護範圍,恐怕將越來越難以因應這種敵我不明的態勢。

若能徹底認清現實,思考與建構適合本身作業環境的零信任模式,透過持續驗證、記錄,以及不斷地分析、監督,方能有效地落實「控制」與「保護」,而非將防禦策略僅偏重在任何一端,我們也就能更扎扎實實獲得保障。

Google投入零信任模式的發展

零信任模式並非只有資安廠商在倡導,雲端服務大廠Google已經投入,他們耗費6年發展了零信任的安全框架,稱為BeyondCorp。他們在存取控制的目標上,從原本僅針對網路邊界來強化防護,提升到可針對個別裝置與使用者來進行管控,目前已能讓自家員工從任何地方連網至公司的應用系統,而不需要經由傳統VPN的加密連線。(圖片來源/Google)

 相關報導  零信任!重新定義資訊安全模式

【掌控人員、技術、流程,重新定義安全防護邊界】零信任模式重啟,將成為資安顯學

$
0
0

網路攻擊手法層出不窮,面對這樣的威脅演進態勢,Check Point畫分為5個世代,依序勾勒出每個階段的重要特徵,包含了80年代興起的病毒、90年代中期崛起的網際網路攻擊、2000年初期出現的應用程式漏洞濫用攻擊、2010年陸續浮現的進階持續性威脅,以及2017年之後,所面臨的大規模、多面向攻擊。(圖片來源/Check Point)

在人類的文明世界裡,信任是一切活動得以順利進行的基礎,在虛擬的網路世界也不例外,但如今,我們卻持續處於各種資安威脅可能隨時發動攻擊的陰影之下。

從早期針對個人電腦的病毒、木馬程式、網路蠕蟲,造成大量散播與破壞,以致垃圾郵件的滋擾、網路釣魚的詐騙、因網頁遭植入惡意程式而造成瀏覽者感染,甚或是近期令人聞風喪膽的各種攻擊事件,像是進階持續性威脅(APT)、巨量DDoS、針對國家關鍵基礎設施的攻擊、勒索軟體,更別說每天都在出現的各種資料外洩事件,從國家、大型企業、團體組織到個人,幾乎無一倖免。

既然情況如此嚴峻,危機四伏,我們該如何提出有效的因應之道來面對?過去,已經有不少專家提出各式各樣的概念,並且也實作成具體的解決方案,然而,受限於資安觀念的不足,以及技術發展的不夠完善,使得具有這類管控功能的產品,並未受到企業大幅採用。

時至今日,過去許多資安專家們所預言的各式威脅,都已成形,並且導致實質影響,大部分的使用者都已經認知到資安的重要性,而資安相關產品和技術的發展,也有了長足的進步。

例如,資安廠商早期著重在「保護」單純針對威脅的偵測、阻擋、清除;到了近幾年來,已開始提升為基於資料導向型的持續監視、分析,協助更精確地掌控各種異常活動與行為,甚至能夠明確辨識出攻擊者的身分,以及所屬的駭客團體,而非只是網路IP位址。

而隨著系統運算成本的降低、資料處理能力的提升,再加上雲端服務與機器學習技術的普及,我們現在更有辦法擷取所有相關的存取活動記錄,以及檢測全部的網路流量,同時,「零信任」模式所帶來的各種衍生成本,也就更有能力去負擔起來,而不像過去,即使有人想這麼做,往往也無力承受全面處理的昂貴代價。

Palo Alto的零信任架構

針對零信任模式的實作,Palo Alto運用了自家的次世代防火牆PA系列、端點防護系統Traps、安全存取雲端服務GlobalProtection,協助企業針對伺服器與個人電腦來建構網路的微邊界。(圖片來源/Palo Alto)

零信任並非全新概念,為何今年成為熱門資安議題?

在網際網路開始普及、茁壯的1990、2000年代,就已經有不少人注意到資安威脅帶來的各種危害,而這也造就了網路防火牆與防毒防駭軟體的普及,當時,除了出現外對內的傳入式攻擊,也有內對內的橫向攻擊(Lateral Movement),以及內對外的發出型攻擊(Inside-Out Attacks)

到了2009、2010年,零信任概念正式被提出,當時的威脅狀態是什麼?根據創泓科技資深技術顧問黃繼民的觀察,那時出現的惡意程式,以殭屍網路、後門木馬為主,再加上與日俱增的漏洞利用威脅、APT攻擊、資料外洩事件,都讓越來越多人意識到,原本安全的內部網路環境變得不再安全,甚至在有意、無意之間,連網的個人電腦竟默默被惡意程式綁架,成為攻擊的跳板或者成為發動攻擊的來源。而這也讓許多資安專家陷入深思,他們想問:單純以公司網路環境的「內」、「外」作為安全邊界分野,真的恰當嗎?

在這之後,雲端服務、行動App、物聯網(IoT)開始普及,企業也開放了自攜裝置到公司上網的政策(BYOD),使得內部網路出現了多種連網設備,像是:採用macOS的蘋果筆電、基於Android和iOS系統的智慧型手機,以及各式各樣的IoT設備,黃繼民認為,在這個時期,駭客攻擊的手法也變得日益複雜,例如,進犯的路徑與形式,從單向(外對內或內對外)、單一型態,演變成內外雙向、複合型態,而且是有組織性及策略性的資安犯罪。

值得注意的是,各種可被利用的安全性弱點持續揭露,也是資安威脅難以杜絕的主因之一。黃繼民指出,尤其是多種使用已久的通訊或應用,以及長期被信任的安全方式,接連爆出重大漏洞,像是SSL、SSH、WPA、SMB、SHA-1,不僅嚴重影響眾多網路設備、應用系統的安全性,就連資安設備系統也被波及,無法倖免於難。

除了從技術上面找尋突破點,運用陰謀詭計使受害者就範,更是令人難以防範,黃繼民提到,常見的欺瞞手段包含:匿蹤、偽冒、嫁接、中間人攻擊、釣魚欺騙,乃至漏洞利用、擅自提升權限,而這些行為針對的目標,多半是「可信任的環境與人員」從而導致零信任的狀況。

今昔相比,內部環境不可信任的事件比比皆是,Akamai亞太區資安與策略總監Fernando Serto指出,這幾年發生大量的資料外洩事件,揭露出橫向移動已經是資料外洩的關鍵部分,而在這當中,攻擊者往往濫用伺服器或應用系統弱點,並且能趁機奪取存取伺服器能力。同時,由於這些系統的所在,也就是防火牆的內側,通常沒有很多安全控制。

因此,他認為,防火牆現行的管理方式,增加了威脅橫向擴散的風險,因為當中往往設置數以百計或千計的流量允許政策,但也由於有這麼多政策,要對其稽核和嚴密控管變得很困難。

而近年來有哪些國內外的重大資安事件,特別突顯了零信任模式的必要性?

臺灣在2016年發生了第一銀行ATM盜領事件,震驚全國;到了2017年,出現遠東銀行的國際匯款系統SWIFT被駭事件;到了今年,司法院也發生內網傳閱主機遭入侵的攻擊,受惡意程式感染的電腦高達243臺。

在這些事件當中,被攻陷的目標,大多是內部網路當中的實體隔離區,雖然這些伺服器或個人電腦存取範圍僅限於內部網路,並不連接到外部網路,但最後還是淪陷了,原因或許就在於駭客先攻佔內部網路的其他電腦,然後,再從此處透過橫向移動的方式,逐漸接近攻擊目標,最後可能運用作業系統或應用程式漏洞濫用的手法得逞。

而放眼全球,許多重大資安事件之所以發生,都與「過於信任」有關。賽門鐵克公司台灣區首席技術顧問張士龍,特別以2013年南韓爆發史上最大APT攻擊事件DarkSeoul為例,印證零信任模式的必要性。

在這次攻擊中,有6家企業的營運受到影響,超過48,700臺電腦、伺服器與ATM接連當機,而原因就在於駭客利用防毒軟體的更新系統,將惡意程式傳送到每個端點電腦當中執行,面對這樣的正常管道遭到駭客濫用,這些電腦毫無抵抗能力,因此,張士龍提醒,所有端點電腦在執行程式時,都應該抱持著「零信任」的概念,謹慎檢視。

黃繼民則以2016年Shadow Brokers入侵美國國安局為例,來說明內部網路防禦不足的嚴重後果。因為,隔年4月,這個團體將EternalBlue這支駭客工具外洩出去,更因此導致WannaCry、Petya等勒索軟體肆虐全球,在5月造成大爆發。黃繼民認為,傳統認知的「邊界防護」無法完全信任,而且,存取接觸端(人或系統)的驗證,也缺乏可信度,從而產生極高的風險,也因為這些事件的發生,企業對於既有資安防護設施的健全度,產生嚴重質疑,此外,對於相關的使用者與管理者,也發生了「信任問題」,而必須加強各種驗證機制。

Check Point提出整體防護的網路安全架構

橫跨網路、雲端服務、行動裝置、端點設備,Check Point今年主打名為Infinity的整體防護架構,結合多層式的威脅預防方案、整合的管理機制,以及一致的API,當中也提供網路隔離、存取控管。(圖片來源/Check Point)

 

Symantec提供應用程式隔離

以端點防護產品聞名的Symantec,透過Symantec Endpoint Protection(SEP)提供多層的恐管機制,面對潛在威脅或未知應用程式時,可透過SEP的Intensive Protection政策,將它們標記為可疑檔案,然後轉交給SEP附加的系統Hardening來進行隔離。(圖片來源/Symantec)

 

Akamai提供基於雲端安全服務的零信任架構

雲端服務廠商Akamai今年也開始主打零信任模式,希望透過他們所維運的多種安全服務,保護企業對內、對外的網路存取,當中將包含身分服務(Identity Provider)、App Proxy、雲端威脅情報服務(Cloud Security Intelligence)、反向DNS查詢服務(rDNS)、網站應用程式防火牆(WAF)、內容傳遞網路(CDN)。(圖片來源/Akamai)

 

防護方式必須改變

若要採用零信任的模式,企業該如何調整現有的資安防護作法?

Fernando Serto認為,最大的調整在於,必須針對網路或實體位置、裝置的擁有者,實施更嚴格的安全控管。

舉例來說,很多組織對於內部網路、分支辦公室的用戶端設備控管,仍然過於寬鬆,其中的應用系統存取,都是透過私有的廣域網路與區域網路來進行,甚至還允許全部的私有IP位址,都能夠存取資料中心的千百臺伺服器,而在批准或拒絕使用者存取的部份,僅仰賴實際的應用程式來處理。

然而,零信任的基礎,在於不信任任何的設備。無論其所在的位置或網路,直到使用者身分通過驗證,並且被授權存取他們所請求的應用程式,而且,就算他們通過身分驗證與授權存取應用程式的程序,在用戶端裝置與伺服器之間的存取,不應只仰賴網路存取控制,而是應該設法維持持續驗證的作法。

要踏出零信任的第一步,Fernando Serto看到他們的用戶採取了幾種作法,例如,有些公司會著手處理第三方使用者,像是聘僱人員、合作廠商等,有些則是調查不同群組的使用者風險。他表示,當每個使用者都改用零信任的管理方式時,也代表組織的安全態勢已經正在改善。

對於零信任模式的採用,張士龍建議,應以多層級的防禦(Multi-Layer Protection)來看待整體企業資訊安全規畫,並且盡可能從各種角度來思考零信任的原則。

他也提出網路、網站、伺服器、用戶等四個層級,逐一解釋這樣的防護。

● 網路端:可運用網路存取控制(NAC)的控管方式,將未授權的使用者與未符合安全規範電腦,直接隔離於網路外層

● 網站瀏覽:當使用者瀏覽網際網路的網站時,企業可採行網頁隔離技術,過濾與移除所有網頁的可疑程式碼,然後再將這樣安全的瀏覽網頁畫面傳送到用戶端,徹底消除所有來自網站的威脅

● 伺服器端:關於伺服器的資安威脅,大多來自於漏洞濫用攻擊,我們可以透過應用程式白名單的機制,僅允許執行指定的應用程式,如此一來,不但可以規範授權執行的應用程式,還可以管制合法應用程式的存取資源。而這當中所採用的概念,正是應用程式安全設計原理所強調的「最低權限」

● 用戶端:對於端點電腦的威脅防禦而言,目前面臨的最大挑戰就是「無檔案(Fileless)」攻擊,若能妥善採行端點應用程式隔離技術,可將應用程式區分為惡意、潛在、不明、善良等類別,接著,我們能夠針對每一個類型,來訂定適當的行為封鎖與隔離動作。

整體而言,若要實作零信任的模式,所需觸及的控管與監督範圍,相當廣泛,而且,必須持續實施,對於企業與資安廠商來說,並非輕而易舉,不過,在當前,若要運用技術來建立零信任架構,其實已經比過去容易得多。廠商投入許多努力,確保用戶能夠跨入零信任架構,而不需要重新造輪。

 

零信任與資安威脅的演進息息有關

(圖片來源/Check Point、Forcepoint)

歷經多年的發展,網路攻擊的手法層出不窮,而且,越來越複雜、影響範圍日漸擴大,相對地,各種防禦機制相繼推出,並且持續強化、推陳出新。

面對這樣的威脅演進態勢,Check Point畫分為5個世代,依序勾勒出每個階段的重要特徵,包含了80年代興起的病毒、90年代中期崛起的網際網路攻擊、2000年初期出現的應用程式漏洞濫用攻擊、2010年陸續浮現的進階持續性威脅,以及2017年之後,所面臨的大規模、多面向攻擊。

無獨有偶,Forcepoint今年特別提出一套新的整體防護概念,稱為Human Point System,強調以人為中心(Human-centric)、能夠依風險自動調整防護(Risk adaptive),而能達到這樣的要求,必須整合更精準的資料控管與透視能力,以及使用者的身分、活動、意圖,並且橫跨不同環境、應用程式、網路來實施這些防護。當然,他們之所以能發展出這樣的架構,也是基於陸續出現的多種資安產品,並且從原本以威脅為中心(Threat-centric),進展到以資料為中心(Data-centric),未來將繼續朝向以人為中心。

 

零信任也需要考量單一廠牌產生的風險,以及適切的設計

(圖片來源/創泓科技黃繼民)

因為資安的控管邊界趨於模糊,所以,在零信任架構當中,提到了所謂的區段防護(Segmentation),希望透過分段安全檢測,達到全面防護,對此,創泓科技資深技術顧問黃繼民也提出幾點建議。

首先,資安檢驗的方式,除了考量IT基礎架構的「南北向」,同時,也不能忽略「東西向」的配置。

其次,我們也應注意採用「單一品牌」或「單一系統」的風險。他認為,如果基於零信任的概念來考量整體防護,勢必對於任何受到信任的人事物,也須抱持著質疑的態度,當然,資安廠商和系統業者也不能例外,事實也證明了,各家資安廠牌的系統都發生過重大安全漏洞,因此,不能輕忽這樣的可能性而毫無防備與應變之道。

如果想要設計出適切的資安防護機制,黃繼民建議,可運用專案任務(Project Task)的方式,來檢視與構思所需。根據他過往經驗來判斷,對於多數用戶而言,都習慣以一套方式套用到不同情境的方式來考量,希望「一次通殺」各種可能需要的應用,但往往會造成許多衝突或涵蓋不夠周全的情況,最後只好選擇妥協或接受不適切的設計。而類似狀況並不只是在考量資安防護時會面臨,也出現在軟體定義網路的評估與建置過程。

 相關報導  零信任!重新定義資訊安全模式

零信任!重新定義資訊安全模式

$
0
0

傳統上,我們在畫分安全性等級時,往往單純以「內」與「外」來區隔是否信任,然而,身處當前網路邊界日漸消弭的環境之下,我們再也無法輕易透過這種二分法,來界定安全防護的實施方式,於是,零信任(Zero Trust)這種看似極端卻不得不然的控管概念,應運而生

臺灣自駕車產業關鍵一步,首輛國產自動駕駛小巴誕生

$
0
0

今年3月下旬,正值乍暖還寒時節,太陽也鮮少露臉。凌晨5點,桃園農業博覽會綠色方舟館園區,有一群人已經上工了,開著一臺似高爾夫球車的電動小巴,車上沒有方向盤,只有司機操作著平版上的搖桿,一邊蒐集行車數據。這天,研發團隊們正在連忙訓練這臺小巧的巴士認路、學會自己開車。因為再過不久,小巴就正式上路,4月時於桃園農博展覽期間,一連跑了40天,660趟,4千多位民眾搭著這臺小巴,穿過人來人往,還有小孩、寵物穿梭的道路上。這是臺灣第一臺國產自動駕駛無人小巴,也是臺灣自駕車產業發展的關鍵一步。

台灣智慧駕駛執行長沈大維是催生臺灣第一臺國產無人小巴的關鍵人物。他莞爾一笑表示,自己和無人電動車會有所關聯,都是因緣際會。

過去求學時,沈大維專攻交通管理和土木工程管理,出社會後進入一家運輸管理與行銷的顧問公司,恰好有家臺灣電池製造公司想轉型發展電動巴士,需要顧問來輔導產品和市場策略,沈大維也參與了這項電動車專案,專案結束後,他更被這家公司挖角,展開了他在電動車的職涯之路。

憑著過去對電動巴士的經驗,在2013年時,沈大維還成立了一家交通規畫管理的顧問公司,擅長車輛產品規畫和定位市場策略等。他表示:「現在臺灣300多輛電動巴士,大概8成都與我們公司有關。」

正因有這段經歷,在2017年時,桃園市政府經發局提出要在2018年農博時提供無人小巴服務的計畫時,沈大維與當時的策略夥伴也組隊參與提案,計畫從國外引進無人車的AI軟體,來結合臺灣製造的車體硬體部。獲選後,去年10月與桃園市政府簽約開始執行。但沈大維苦笑說,執行過程困難重重。

國產無人小巴誕生的秘辛

無人小巴專案啟動不久,隨即出現了第一個挑戰,沈大維開始評選要採用的國外AI技術業者後,發現技術授權方式不夠開放、導入門檻也很高,雙方合作因此不順。即使臺灣團隊已經順利完成了車體,但遲遲無法整合軟體。這個問題困擾著沈大維團隊,隨著農博開幕時間越來越近,後來,他們決定自己來,不只車輛硬體,連無人車AI控制系統都自己打造。

去年12月時,沈大維團隊直接採用Nvidia的自駕車開發平臺Drive PX2當作無人小巴的AI控制系統。儘管這套系統要價不斐,但可以提供一套基本的無人車控制軟體。而恰好,Nvidia也想要在亞洲市場,發展在地的自駕車應用,尤其臺灣這種機車穿梭的場景,是歐美自駕車場景無法訓練的環境,需要在當地發展和訓練自駕車,AI模型才能學得會。Nvidia看好沈大維團隊打造國產無人小巴的潛力,決定派出自家AI團隊技術人員,來協助設計一套無人車操控系統,甚至凌晨在現場訓練AI模型都參與,提供技術協助。

包含Nvidia技術人員在內,整個農博專案團隊才20人。雖然每人來自不同專業,也各有所長,但大家齊心,為農博無人小巴這個目標努力。「短短2個月組隊,然後4個月完成農博任務」沈大維驕傲地說。

不過,順利打造出無人小巴、在3月進駐園區要開始上路測試訓練時,另一個挑戰也隨之而來。由於無人車AI控制系統在正式上路前,需要就地蒐集資料和訓練,比如遇到障礙物該如何避開、如何跟著標線走等等,因此訓練環境十分關鍵。但沈大維表示,當時場地正在興建、工程車頻繁進出,而每到假日,園區也湧現許多人潮,這也讓無人小巴的AI訓練斷斷續續,進度遠遠落後。

後來,沈大維和團隊與政府不斷協調,請政府每天至少安排3個小時,像是從中午11點至下午2點,讓團隊來訓練無人車的AI系統。此外,團隊也利用一大清早、工程車尚未開進園區前,來訓練無人小巴。團隊訓練時分為兩組,一組人馬在車內、負責駕駛和錄製資料,另一組則負責駕駛前導、清空路線障礙,以及上傳資料的工作。沈大維表示,當時他們一天至少6個人在現場,每天輪兩班、以兩倍人力進行訓練,而自己也下去開車、錄製資料。

經過短短不到3周、275趟(220公里)的訓練以及5T的資料量,AI系統就已大致訓練好,無人小巴已能在規定的800公尺園區路線行駛,完成全線4左彎、1右彎和S型彎道的運行。而這臺4.6M的無人小巴,也順利在4月4日農博會綠色方舟館開幕時載客,一直到5月13日農博展期落幕,總共完成40天660趟的運行,載客量達到4千多人次。

攝影/洪政偉

無人車技術解密

要剖析無人車,可從硬體和軟體兩方面來談。沈大維說,在硬體方面,一般車子的方向盤系統為機械式控制,以方向機為縱軸、推動前輪橫軸來轉向,頂多由油壓輔助推動,主要還是人為操控。但無人車的前提,是要將一切動作改為訊號控制,而非機械控制,也因此方向機必須改成非油壓的線性馬達。這也是無人車與傳統車輛的差別。除此之外,無人車也需要不同感測器來辨識行駛環境,像是攝影鏡頭、光達和聲波雷達,以及定位用的GPS系統。

這臺號稱7成國產的4.6M無人小巴,哪7成是國產呢?沈大維說,車子硬體部分如底盤、馬達電池等,皆由臺灣廠商製造組裝,而線性馬達、光達和AI處理器PX2則屬於外購。他表示,當時因找不到臺灣生產無人車用的線性馬達,所以向美國一家廠商購買,但馬達到手後,由於方向盤端和輪軸端接頭不一致,團隊還自己開模改造。此外,無人小巴配置的感測器如12顆聲波雷達和8顆攝影鏡頭,也都是臺灣製造。最重要的是,無人小巴的組裝和AI訓練,都是由臺灣團隊親手完成。

在軟體方面,沈大維則比喻,無人小巴學開車,靠的是背後的AI大腦,也就是AI控制系統,以及核心技術深度學習(Deep Learning)。而AI的使用,與構成自駕車行駛的兩大步驟有關,也就是Global Planning與Local Planning。

在第一步驟Global Planning部分,沈大維表示,無人車行駛就像人在開車一樣,一上車必須知道自己在哪,因此需要精準的GPS導航系統,以及高清地圖。而知道自己的方位後,接下來就是要知道去哪裡,並由導航系統規畫路線。「這是自駕車的第一步,大方向規畫,告訴車子如何從A走到B。」

而第二步驟Local Planning,指的是細微、即時的路線調整。因為車輛行駛時不可能完全照導航路線走,有時遇到一些如塞車或道路封閉的狀況,就必須改道,或是當前方有公車,就得切換到快車道超車等,這些路線變換的決策就屬於Local Planning。

而「Local Planning就是AI上場的地方,」沈大維說道。在這部分,自駕車必須仰賴許多感測器的資料,比如攝影鏡頭取得的畫面、光達測得的物體輪廓與距離,以及聲波雷達的感測資料等,來判斷車子行駛的環境,以便進行更細微的操控。而深度學習,就是用來分析影像、計算和規畫行車路線。

他以無人小巴為例,在訓練AI系統時,「Input就是場景,Output就是我的操作模式,不斷訓練、讓AI學會應對不同場景。」舉例來說,彎道就是一個場景,也就是輸入值,如何轉彎、要以什麼速度過彎等就是操作模式,也是輸出值,透過車輛參數記錄和影像資料標記來訓練類神經網路模型,目標是讓AI輸出的操作模式接近人當時的操作模式。

此外,無人小巴另一個技術關鍵是3D高清地圖(HD Map),沈大維表示,這類地圖才能讓車子更了解環境,比如某路段該走哪個車道、前方有幾個紅綠燈等,或是路中是否有分隔島。

但他也有感而發表示,AI開車就像人在學開車一樣,經驗不足時需要許多輔助,就像駕訓班學開車時,教練會說看到某個旗子、方向盤要右轉打到底,而自駕車的AI大腦尚未完全發育時,也需要許多感測器輔助。當人駕駛經驗越來越豐富後,甚至只需靠視覺來判斷車況。沈大維說,也許當AI越來越聰明時,就不需要太多輔助系統。「但若將安全當作最後一道防線,感測器只會越來越多,也就越燒錢。」比如先前Uber自駕車撞死一名違規穿越馬路的老太太,但有說法認為自駕車若裝有聲波雷達,也許能提早預警、煞車。這也點出了自駕車研發時,安全與成本的衡量。

最後完成的無人小巴,在自動化程度方面可以達到約Level 3至Level 4間,也就是自動駕駛,但車上仍須有駕駛人員隨行,以處理突發狀況。這臺小巴最多可承載12人,但為了提供舒適的乘坐體驗,在農博期間每次載客數以10人為限,其中8名為乘客,再加上2名隨行工作人員。

無人小巴在農博展覽期間的行駛路線全程800公尺,沿途包括了4次左彎、1次右彎和一個S型彎道。沈大維說,雖然小巴時速最高可達40公里,但由於人潮眾多,無人小巴行駛800公尺路程約10分鐘,時速在8~10公里左右 。而小巴在數十公尺以前偵測到行人時,就會減緩速度,「就算是2公尺內突然有人衝出來,也停得住」。

不過,當時無人小巴的煞車機制只有兩種:急煞與緩煞。在農博初始時,團隊開啟小巴自動停車(煞車)功能,但也由於遊客眾多,甚至曾有位阿伯,直接走進車道中揮手,想要試探無人車的反應,而這臺無人小巴也因此常需緊急煞車,影響車上乘客的體驗。為了改善這一點,在農博展覽中後段關掉自動停車功能。如果有人或寵物突然出現在車道就人為操控煞車。沈大維坦言,煞車機制還不夠細緻,是目前努力的目標。

未來展望

「打造無人車的門檻不低,但我們意外地在短時間內克服了」他微笑著說。有了打造首輛國產無人小巴的經驗與成就,沈大維表示,他和團隊成員希望能繼續延續這股氣勢,也因此在今年5月成立了台灣智慧駕駛公司,9名成員多半是當初一起為農博專案打拼的夥伴,像是負責電動車硬體的創奕能源、自駕車感知模型開發的人因移動、原型車開發的奕兆綠能,以及智慧系統整合的全徽道安等。而他們目前也在開發新款無人6M中巴,也與桃園捷運和國內大型主題遊樂園洽談無人巴士接駁應用事宜。

另外,台灣智慧駕駛未來也打算將無人車外銷至其他亞洲國家。沈大維表示,臺灣是亞洲左駕市場很好的據點,具備都市和偏鄉環境,還有機車與狹小的街廓等,而這些特點是國外自駕車AI系統難以適用的。

 

 CTO小檔案 

沈大維

台灣智慧駕駛執行長

學歷:臺大土木學系交通工程管理組研究所畢業

經歷:最初於季鈞管理顧問公司擔任規畫師。2011年時進入立凱電能,擔任新事業開發部經理,踏入電動車領域。2013年成為季維管理顧問公司的共同創辦人兼協理,負責交通管理規畫與市場行銷策略。而在完成桃園農博無人小巴專案後,今年5月成立台灣智慧駕駛公司擔任執行長。

 公司檔案 

台灣智慧駕駛

● 成立時間:2018年5月

● 業務:打造與推廣國產無人電動巴士,目前規格有4.6M小巴和6M中巴,計畫以租賃方式提供服務。應用市場為封閉園區接駁和捷運末端站接駁。

● 員工數:9人

 公司大事紀 

● 2017年10月:與桃園市政府簽訂農博無人小巴專案合約

● 2017年12月:無人小巴車輛組裝完成(尚未升級為線控)

● 2018年2月:完成車輛線性驅動工程

● 2018年3月:HD map建置完成

● 2018年4月:完成深度學習建立DNN模式,同月於桃園農博綠色方舟館正式運行

● 2018年5月:農博展覽結束,無人小巴運行40天也順利落幕


棋王如何看待他的最強對手AI

$
0
0

我西洋棋生涯的每一個棋步都代表一個決定。由於西洋棋有既定的範疇,每一項決定都能進行分析、檢驗品質。人生就沒有那麼黑白分明了,我們日常的決策過程不像西洋棋棋步那樣容易進行客觀分析。然而,這種狀況正在改變。我們將越來越多的日常生活資料輸入機器後,它們越來越能幫助我們更清楚自己所做的決定。你的個人理財狀況會有銀行和專員在線上追蹤,也會有特定的網站和應用程式控管。教學目標可以受到監督,學習表現也能追蹤。你手腕上的穿戴式裝置和手機程式會監控你的健康狀況,幫你計算燃燒的卡路里和仰臥起坐次數。研究告訴我們,我們一直高估自己的運動時間,低估自己的食量。為什麼這樣?這種思考方式會滿足我們的需求:我們想要認為自己的狀況好,也想要吃更多零食。人機合作可以讓你誠實,只要你對你的機器誠實就好。

我們可以用這些工具來測試自己的假設和決定。你覺得你需要多久才能完成某項計畫,或是達到某個目標?之後,你可以回頭看看你的評估是否精準。假如評估失之千里,為什麼評估會出錯?若要讓思考有條理、規畫有策略,列出清單和階段目標至為緊要。我們在嚴格的工作環境外常常不會這樣做,但這樣做的好處甚多,現今的數位工具讓我們可以輕易追蹤。

我的西洋棋學生會用西洋棋引擎,訓練他們做出更客觀、更精確的決定。同理,你也可以用越來越有智慧的機器,幫助自己成為更好的決策者,不只是將一部分決定外包給機器,更要以更客觀的角度來觀察和分析自己的決定。假如你不把資料當一回事,就算你擁有全世界的資料,也不會勝過你的偏誤。不要再去找藉口或合理化的理由,因為這些只是你的大腦欺騙你自己,讓它可以為所欲為。讓資料自己說話可能不容易,畢竟我們不是機器。

如果不是人機對戰,而是人機合作呢?

不知你是否還記得莫拉維克悖論?機器的長處是人類的短處,人類的長處是機器的短處。西洋棋清楚印證了這個悖論,而這也讓我有個實驗的想法:如果我們不是人機對戰,而是人機合作呢?我的想法於一九九八年在西班牙雷昂實現了,我們稱之為「先進西洋棋」。比賽進行時,每一位棋手有一台電腦,跑著自己喜愛的西洋棋軟體。這個想法的目標是要結合人類與機器的長處,創造出史上水準最高的西洋棋。

我在雷昂的對手是保加利亞的托帕洛夫,他當時是世界頂尖棋手之一,雖然我為了這種新異的比賽方式進行充足的準備,但比賽處處有奇特的感受。下棋時可以使用西洋棋引擎,既是一件精采萬分的事,也讓人不安。由於我們可以存取內含幾百萬盤比賽棋譜的資料庫,開局時不必那麼絞盡腦汁。因為我們同樣可以存取同一個資料庫,到了某個地步還是需要發展出新招來取得優勢。

有電腦當助手,表示我們不需要擔心犯下戰術失誤。電腦可以預言我們思考的每一步棋會帶來什麼後果,指出我們可能忽略的後果或反制之道。有電腦處理這些事情,我們就能專心在策略規畫上,不必耗時進行繁複的計算。在這種情況下,人類的創造力並沒有減低,反而更為重要。

雖然這樣綜合了兩種優勢,我和托帕洛夫的比賽遠遠不及我理想中的完美狀態。我們下棋時仍有計時限制,與矽晶片助理商議的時間有限。雖然如此,比賽的成果依然顯著。這次比賽的前一個月,我在正常計時限制的快速棋比賽中,以四比○的比賽積分打敗托帕洛夫。相較之下,這次的比賽最後下成三比三平手。我在戰術計算上的優勢被機器消弭了。

先進西洋棋的比賽繼續在雷昂舉辦數年,經常出現有趣的啟發。我喜歡的其中一件事,是棋手的電腦畫面可以同步讓觀眾看到,有如特級大師頭腦裡裝了一個隱藏攝影機,看他們怎麼衡量各種變著。就算沒有機器輔助,這樣即時看見棋手的思考方式也很有意思。每一位棋手比賽時的完整分析樹都能保存下來,和另一位棋手進行對照,來看他們處理關鍵盤面時採用的手法有何不同。

更顯著的成果是先進西洋棋的實驗是怎麼接續下去的。二○○五年,線上西洋棋網站Playchess舉辦一個「自由式」大賽,任何人都能組隊來對戰其他棋手或電腦。在一般的情況下,下棋網站會使用「反作弊」的演算法,防止棋手用電腦輔助來作弊,或者至少減少這種情況發生。

比賽結束時出現了意外。最後獲勝的隊伍,結果不是採用頂尖個人電腦的特級大師,而是同時使用三台電腦的兩位美國業餘棋手克拉姆頓(Steven Cramton)和史蒂芬(Zackary Stephen)。他們操控、「訓練」電腦去深入研究盤面,技術精湛到勝過特級大師更優越的西洋棋知識和其他參賽者更強大的電腦運算能力。這是靠程序獲勝的戰果:聰明的程序打敗更優越的知識和科技。當然,此舉並沒有讓知識和科技變得無用,但證實了提高效能和協調合作方式可以大幅改善結果。我用這種方式說明我的結論:「弱人類+機器+更好的程序」勝過「單一強電腦」,更驚人的是還會勝過「強人類+機器+較差的程序」。

我在《走對下一步》一書中提到這次自由式西洋棋大賽的結果,以及我從中得到的結論;二○一○年為《紐約書評》雜誌撰文時,又補充了一些看法。我收到的回應讓我意外,世界各地都有人致電或以電子郵件詢問我提出的那個小點子。Google和其他矽谷公司紛紛邀請我演講,談論人機合作時程序的重要性;另外,投資顧問公司和商用軟體公司紛紛告訴我,他們多年來一直向客戶強調同一件事。

這種說法現在有許多版本,有人稱其中一些版本為「卡斯帕洛夫定律」,讓我覺得有點好笑,不過我想我們通常無法決定這種東西會叫什麼名字。這篇文章之所以那麼成功,時間點是一個很大的因素。由於機器學習和其他技術所致,智慧機器有了長足的進展,可是在許多方面,它們已經逼近資料式智慧的現實極限。資料庫從幾千種範例跳到幾十億種範例後會帶來巨大的改變,但從幾十億種範例增加到幾兆種不會帶來多大改變。為了因應這個問題,現在有了相當諷刺的轉折:許多公司和研究計畫花了幾十年,試圖用演算法取代人類智慧,現在卻要將人類大腦再度放進海量資料裡的分析與決策程序。西洋棋程式從知識演變成暴力法,但在暴力法出現收益遞減效應後又需要稍稍向知識走一些,其他方面的程式也一樣。在這一切中,程序又是關鍵,因為只有人類才能設計出程序。

一行程式碼、一顆滑鼠、一根手指、一道語音指示:和當今機器的驚人能力相比,這些只是原始的類比式工具。我們需要新一代的智慧工具,來當作人類與機器(以及機器與機器)的翻譯。一群人在會議中彼此說話並不是問題,因為大家都以人類的速度在運作,然而既然機器現在進入決策的領域,我們要怎麼和它們互動?日後仍有許多工作被自動化的智慧機器取代,可是如果你想要進入一個還會大幅成長許多年的領域,不妨試試看人機合作,以及程序架構與設計。這不只是「用戶體驗」(UX),更是用全新的方式將人機合作帶進各種不同的領域,並且創造這一切所需的新工具。(摘錄整理自第11章)

 

 書籍簡介 

深度思考:從深藍到AlphaGo,了解人工智慧的未來、探索人類創造力的本質,大腦最後防線與機器鬥智的終極故事

加里•卡斯帕洛夫(Garry Kasparov)/著

王年愷/譯

臉譜出版

售價:480元

 作者簡介 

加里•卡斯帕洛夫(Garry Kasparov)

前西洋棋世界冠軍,現為商業演講者、全球人權倡議者及作家。以策略性思考、展現頂尖表現能力及科技創新相關的演講和講座,在數十個國家備受好評。

一周大事:甲骨文7月破紀錄修補三百多個安全漏洞。GCP與Digital Asset聯手開發區塊鏈新應用

$
0
0

中國製掃地機器人遭爆有安全漏洞

資安業者Positive Technologies指出,由中國業者締奇(Diqee)所生產的360掃地機器人含有兩個安全漏洞,漏洞若遭成功開採將允許駭客自遠端控制掃地機器人,甚至是攔截掃地機器人所處Wi-Fi網路上所傳送的資料。(詳全文)

 

AWS S3配置不當又一樁,數十萬選民個資曝光

近日Kromtech Security的安全研究人員再度發現配置不當的AWS S3儲存貯體,這次的始作俑者是美國專門提供政治競選活動電話語音行銷服務的Robocent。Diachenko是利用免費的GrayhatWarfare來搜尋Amazon S3的公開資料庫,以「voters」為關鍵字找到了Robocent的儲存貯體,內有數十萬筆美國選民資料。(詳全文)

 

甲骨文7月破紀錄修補三百多個安全漏洞

在7月17日,甲骨文釋出的每季例行性重大修補更新(Critical Patch Update,CPU)修補了334個安全漏洞,超越了去年7月修補的308個漏洞,寫下歷史新紀錄。

甲骨文的每季修補規模之所以如此龐大,是因為它涉及了甲骨文旗下超過100種產品,在這些安全漏洞中,有17%與金融服務應用有關、13%與Fusion Middleware有關,與零售應用及MySQL有關的漏洞也分別占了9%。(詳全文)

 

Magniber勒索軟體出現變種,攻擊範圍擴大至亞洲多國

日前Malwarebytes研究團隊針對Magnitude網站滲透工具(Exploit Kit)進行研究,發現駭客近年來利用這套滲透工具,散播多款勒索軟體,例如,去年發現的Magnigate與Magniber,以及今年4月出現的GandCrab等,而最近的新版Magniber勒索軟體,程式碼不但更為精簡,在執行電腦檔案加密的過程中,更可離線執行,不再需要連線到C&C中繼站。攻擊範圍也不再局限於南韓,而擴大至澳門、新加坡、中國、臺灣、汶萊,以及馬來西亞等國。(詳全文)

 

Alphabet營收成長強勁,但歐盟罰款侵蝕獲利

日前Google母公司Alphabet公布2018年第二季營收財報。Alphabet上季營收327億美元,較去年同期成長26%。雖然成長強勁,但7月Google因為被歐盟認定濫用Android的市場優勢綑綁Google Search、Google Maps等服務,遭到歐盟罰款43.4億歐元(約為50.7億美元),明顯對獲利產生影響。(詳全文)

 

微軟Windows 10 IoT Core服務預覽版上線

物聯網應用是近年微軟努力加強布局的市場,在今年Computex時,微軟就宣布釋出Windows IoT Core服務,讓企業夥伴可以使用Windows IoT Core,作為其物聯網解決方案的執行平臺。而現在該服務處於預覽版狀態,微軟也祭出長達10年支援周期的承諾,確保企業的裝置定期更新及運作狀況健康。(詳全文)

 

GCP與Digital Asset聯手開發區塊鏈新應用

為強化Google Cloud Platform(GCP)對企業的吸引力,Google在雲端合作夥伴大會Next’18上宣布和區塊鏈新創公司Digital Asset合作,以協助企業客戶在其雲平臺上開發區塊鏈應用程式。(詳全文)

 

微軟創下一千億美元的年度營收紀錄

在7月19日微軟公布了截至6月30日的2018財年第四季營收與年度營收,第四季創下301億美元的營收,比2017財年同期增加17%,而微軟在2018財年締造了1,100億美元的營收,寫下微軟年度營收的新紀錄,這些訊息讓微軟股價上揚3.26%,達到107.8美元,同樣是微軟的股價新高。(詳全文)

 

GCP更新帳號管理政策,避免錯停用戶帳號

在6月時,有GCP用戶在部落格抱怨,他們建構在Google雲端平臺的服務被無預警關閉,Google工程支援區域負責人Brian Bender出面道歉,並且承諾改善帳戶審查機制。而今GCP公開了更新後的帳戶管理政策,其中包括不會以自動偵測機制暫停離線付款的既存客戶,即便是線上客戶,也會延遲暫停帳戶的時程,另外,還增加7x24的對話客服服務。(詳全文)

 

Mozilla開源語音資料專案開始募集正體中文音檔

為加速語音辨識相關技術及應用的發展,Mozilla發起開源語音募集專案Common Voice(同聲計畫),近期開始募集正體中文音檔,鼓勵民眾獻聲,以協助正體中文語音資料庫的建立。(詳全文)

 

甲骨文開始支援雲端搬移工具,吸引企業用戶上雲

雲端服務競爭激烈,各廠商都千方百計的想讓企業用戶可以更簡單上雲,或者擁抱混合雲、多雲架構。而簡化該任務的關鍵,就是雲端搬移工具。像是經營超融合架構市場的Nutanix,日前就推出搬遷工具Xtract,要讓公雲用戶移轉到自家AHV虛擬平臺。(詳全文)

 

Opera 55將直接支援Chrome擴充程式

瀏覽器業者Opera最近釋出的Opera 55測試版(Beta),提供更直接的管道以方便用戶安裝Chrome擴充程式。(詳全文)

 

推動5G,英國拚2033年全面網路光纖化

英國政府為了加速5G基礎架構環境的到位,近期計畫推動2033年達成全部光纖化的目標計畫。英國政府認為,5G的覆蓋需要完全光纖化的基礎架構,因此承諾未來7年內讓1,500萬家戶使用全光纖寬頻網路,而在2033年之前英國境內要全面部署光纖網路。(詳全文)

 

三星發表業界首款8Gb的LPDDR5記憶體

在7月17日,三星(Samsung Electronics )宣布已成功開發出業界首款10奈米等級的8Gb LPDDR5 DRAM,與現有的LPDDR4X相較,8Gb LPDDR5 DRAM的傳輸速度增加了50%,電力損耗最多則可減少30%,替即將來臨的5G與人工智慧等行動應用舖路。(詳全文)

 

廣達QCT攜IBM合攻雲端企業

隸屬於廣達集團的雲達科技(Quanta Cloud Technology,QCT)日前宣布與IBM正式簽署戰略協議,將聯手布局全球雲端企業市場。這次合作意味著,雲達不再只專注服務大型雲端企業,未來更要通吃全球企業,連規模不大的中小企業都將成為其銷售服務的對象。而且這次強強的聯手,對於雲達來說,不只有著布局全球雲端資料中心市場的戰略性的重要意義,背後更大的企圖,是為接下來全球5G電信和AI應用市場鋪路。(詳全文)

霧端計算崛起,騰雲駕霧的新時代

$
0
0

繼「雲端計算(Cloud Computing)」之後,近年來又多了一個新的名詞「霧端計算(Fog Computing)」它主要來自於「霧是更貼近地面的雲」這句話。

前幾年喊得火熱的「雲端計算」如今已經是像陽光、空氣、水,存在我們的生活之中。那麼,「霧端計算」和「雲端計算」又有什麼分別呢?

為什麼有了「雲端計算」還會需要有「霧端計算」呢?我們在本文中做個簡單的介紹。

因應物聯網應用需求,於是,從雲端計算衍生出霧端運算

霧端計算這個名詞,最早是由 Cisco公司所提出。在「霧是更貼近地面的雲」這句話裡,「雲」是在高高的天空中,象徵接著位在網路中心的計算資源,代表的是計算資源的集中化。「地面」代表的則是 用戶所處的網路末端,因此,更貼近地面的意思,就是更接近用戶所處的網路末端,「霧」所代表的,便是比「雲」更接近用戶所在網路末端的計算資源。

為什麼我們需要將計算資源,部署在更接近網路末端呢?

有一個很重要的原因,是為了物聯網技術及應用的發展。有愈來愈多的智慧型聯網裝置連接到網路上,在雲端計算的基礎模型下,它們大多只具備非常薄弱的計算能力,因此,必須透過網路從雲端取用相關的計算資源,像是儲存或是計算力。隨著需求量快速的成長,一來是雲端的負擔愈來愈重,畢竟它是一個集中化的資源,二來,雲距離末端比較遠,這些智慧型裝置存取雲端上的資源時,會有較長的延遲時間。

因此,在這些考量之下,有了霧端計算,也就是將計算資源進行某種程度的去中心化,並且部署在更接近用戶的所在。

所以,霧端計算並不是替代雲端計算的角色,而是做為雲端計算的延伸。

基本上,這二者的搭配是將計算資源的分配予以階層化,最上層是雲、中間層是霧、最底層是用戶端的連網裝置。因此,在這種模式底下,原先一律集中在雲端的計算資源,就有一定比例被降到了霧端,當裝置要取用資源時,便就近至霧端取用。

這麼一來,因為霧端更接近地面,因此,存取的速度就快,二來,即使需要頻繁大量的溝通,大量的網路流量也只會散佈在地面與霧之間,不會通通往雲裡丟,降低了雲上的負擔。

以霧端計算的應用場景為例,進一步了解與雲端計算之間的差異

舉個簡單的例子,警察單位開發了路口車牌的監視系統,希望即時接收來自於廣佈於各路口的監視器的影像,並且立即進行車牌辨識的計算,將通過路口的車輛的車牌號碼,即時儲存在資料庫中。這麼一來,便可以即時進行特定車輛的監控,或是事後調閱所指定車輛的移動路線。

以典型雲端計算的方式來發展這樣的系統,可能的實作方式之一,會是將每個路口監視器的即時影像串流都傳送至雲端,由雲端上的計算服務即時的進行車牌辨識的處理,接著,再將時間、地點、車牌號碼予以儲存起來,以介接其他的應用模組。

在這種模式下,所有的影像串流都必須被傳送至雲端,而且,也都在雲端進行車牌辨識的影像分析計算。

可以想見的是,由於影像串流的資料量非常的龐大,雲端服務因此便會耗去可觀的頻寬,同時集中在一起。再者,車牌辨識所需的算力,也都會集中在雲端,這讓雲端的負荷不輕。

上述的應用,若是改以霧端計算的模式來輔助,則可以想像有些計算裝置會被部署在更接近路口監視器,也就是地面的「霧端」。

而這些「霧端」裝置的作用,就是接收來自於路口監視器的影像資料,同時即時辨識出車牌號碼。在辨識出車牌號碼之後,再將所辨識得出的車牌號碼送至雲端,進行記錄及後續的處理。

藉由霧端裝置的搭配,能夠改變原本過於集中至雲端處理的模式

而基於這樣的設計架構,我們其實可以得到一些好處。

首先,原先傳輸至雲端的大量影像串流資料,只需要從路口監視器傳輸至霧端了,使得大部分的流量被區域化了。

由於雲端上的頻寬成本,不論從實際上購買的價格,或是因為集中化所產生的代價,其實,都比霧端高很多。除了流量被區域化,之後,因為車牌辨識的計算也從雲降至霧,計算也去中心化了,所以,這能夠大幅降低雲上的負擔。

從上述的例子不難看出,霧端計算試圖將計算資源做新的調配,將原先部署在雲端的計算資源,降低其高度至霧上,藉由將原本較為中心化的計算模式,達到某種程度的階層化、去中心化,因而得到這些好處。

兩者都包含了集中化和分散化的特性

從人類發明了電腦以來,計算的模型,就一直在集中化和分散化之間擺盪,不過,集中和分散其實只是程度的差別。從最早的大型電腦到個人電腦,從高度集中的計算到分散式的計算。以雲端計算為例,它在概念上是集中,但是在雲端之上本身又是分散式計算,充滿了數量龐大的伺服器,而且,構成了龐大的計算資源以供取用。

曾經一度,點對點(Peer-to-Peer)的計算模式也曾大行其道,人們試圖將所有的計算力,分散到更大量的計算裝置上,而在那之後,趨勢才又擺回了雲端計算。

雲端計算雖說是集中化,但也已經不是高度集中,它是集中裡有分散。

因此,我們也可以說,霧端計算是分散裡有集中。在大量分散化的智慧型物聯網裝置之上,部署較為集中化的霧端裝置。但霧端相較於雲端而言,又顯得分散多了。

從計算資源的充沛程度來看,雲端因為最集中,因此計算資源最豐富,不論是計算力、儲存空間或是頻寬。相對而言,霧端較弱,但因為數量遠多於部署在雲端的伺服器,因此,組合在一起也能提供可觀的計算資源,再加上位處接近用戶的所在,更能收地利之便,這些也便是引入霧端計算概念後,所能得到的好處。

隨著技術的發展,現在即使是末端的計算裝置,所擁有的計算資源都遠勝過去。一具小小的智慧型手機,其計算力也都遠遠超過昔日的個人電腦。同時,集中和分散的擺錘,還是在繼續的擺盪著,只是愈來愈靠中間,就像雲端是集中裡有分散,而霧端是分散裡有集中一般。

隨著計算裝置的更多樣化,有著不同程度資源的裝置,部署在網路的不同位置上,人們會透過適當的調配不同裝置的角色,來使得應用系統取得更佳的表現。

近來區塊鏈(Blockchain)的技術深受矚目,一心一意要達到全然的去中心化。在計算模型的歷史發展上,目前又有擺向分散化的趨勢。但未來的真實世界也一定是不斷混搭著各種集中和分散的元素,依據需求來決定分散及集中的組成及程度。

在接下來幾年裡,以雲端計算搭配霧端計算的模式很有可能會開始普及,並且帶來高度的影響及大幅的改變。以霧來搭配雲,日後不僅要騰雲,更要駕霧。

JavaScript風格的this

$
0
0

在各種物件導向語言中,多半會有this之類的關鍵字存在,而JavaScript的this,大概是最受人矚目了吧!網路上永遠不缺下一篇文件來探討this,感覺就是個捉摸不定的對象,到底哪篇才是正確的解釋呢?

從底層的實作來看,這個this又會是怎樣的一個存在呢?

從函式的實作開始

因為函式可以隨意傳遞,亦可作為物件的方法操作,JavaScript的this是,動態地、依當時呼叫函式的方式而變化。

然而,對於來自嚴謹風格物件導向語言的開發者來說(例如Java),往往對此特性感到訝異,且覺得難以掌握,特別是在物件形成巢狀結構,或者是無法確定函式被呼叫的方式時(例如事件處理),經常無法辨別this為何物!

從語言的實作面來看,this在最單純的層面上,就只是個變數,實際參考值就視當時查找的環境物件而定。

而環境物件,就是先前專欄〈用抽象語法樹寫程式〉中談到的ctx,其中存放著變數名稱對應的值節點,例如,某變數節點variable代表'this',執行variable.evaluate(ctx)時,就是看ctx上有沒有'this'對應的值節點。

進一步地,若要瞭解this,必須先認識一下函式呼叫的實作。

假設stmts代表函式本體中全部陳述句節點的頂層節點,若函式定義有參數x,而呼叫函式時的引數為10,實際上就是將stmts作為new Assign(new Variable('x'), new Int(10))的子節點,如此在stmts.evaluate(ctx)時,就會在ctx上增加x與Int(10)節點的對應,因而stmts中若需要x,也就可以查找到對應的值節點。

而在這樣的實現方式下,如果我們要能在函式中使用this,就必須在某個時機點,執行new Assign(new Variable('this'), node),並將之作為函式本體stmts陳述的父節點,該時機點執行時的node是誰,函式之中的this,就會是誰。

apply與dot運算子

JavaScript本身提供了機制,可以直接指定this是誰,那就是函式物件的call或apply方法。

而這兩個方法的首個參數,都接受物件,作為this的實際對象,如果要自行實作apply方法,採用的概念如下,其中的args,會是實際上指定給函式的引數節點:

const target = targetParam.evaluate(ctx);
const args = argsParam.evaluate(ctx);
return new StmtSequence(
new Assign(new Variable('this'), target),
funcNode.bodyStmt(ctx, args)
).evaluate(ctx);

在JavaScript中,在無法確切掌握this是誰,或者必須固定this的對象時,往往會運用函式的apply或call明確指定。

像是:在瀏覽器環境中,經常會需要明確綁定this為某個DOM物件;比較難捉摸的是使用dot運算子時的this對象。

如先前專欄〈無拘的物件導向〉中談過的,dot運算子,可以看成是個二元運算子,而左運算元會是個實例,右運算元若是個函式呼叫,在取得函式本體陳述句節點之後,建立new Assign(new Variable('this'), leftOperand)作為函式本體陳述節點之父節點。

簡單來說,無論是apply或dot運算子,就是各自在呼叫函式之前,建立this作為隱含的參數,當函式不是透過這兩類方式呼叫時,理論上,就不會有隱含的this參數。

然而,在過去,JavaScript在不透過apply或dot直接呼叫函式時,this會直接參考至全域物件,著實耐人尋味。

JavaScript的this實作

在〈JavaScript的this原理〉(https://goo.gl/6HaKTP)中,也從JavaScript語言實作角度,探討了this的原理。

而根據作者所述,若想實現JavaScript風格的this,可以令this保存環境物件,相當於上述的ctx,而且this環境物件與實例在存取上,可設計為相同介面,這樣就無需區別兩者不同。

另一方面,就算在沒有透過apply或dot運算子呼叫函式之時,同樣也建立this作為函式呼叫時隱含的參數,並且令this指向全域環境物件,行為上就會與JavaScript類似了。

JavaScript令this本身就是環境物件的好處之一,應該是實現Closure時方便,當某個函式捕捉了外部函式的變數,並自函式呼叫結束後傳回,為了後續在呼叫被傳回的函式時,當中捕捉的變數仍然有效,必須有個方式令傳回的函式保留環境物件,而JavaScript的this扮演了這個角色。

如果不採取這個方式,就必須有額外的方式保存環境物件。

例如,我在ToyLang中的實現方式,是在函式本身保存環境物件,在呼叫函式時,若函式保存了環境物件,並且以該環境物件創造子環境物件,在函式中,就可以從子環境物件,一路往父環境物件查找被捕捉的變數。

而在這樣的作法之下,只有透過apply或者dot運算子,才會有this參數可用,this也就不會有指向全域的問題。

實際上,this指向全域在JavaScript中,也是個不好的特性,因此,在ECMAScript 5之後的嚴格模式(Strict mode)下,直接呼叫函式時,this也會是undefined了。

this是隱含的參數?

簡單來說,this本質上並不複雜,可視為函式呼叫時的參數之一,只不過在許多語言中,這個參數是隱含的。

然而,在Python裡面,倒是明確地要求,若函式會作為方法使用,第一個參數(通常命名為self)就必須接受被操作的實例,而這就是Python明確風格的展現。

當然,語言還是有其個別專屬的特性,例如,上述JavaScript風格的this實現,就有著兩種截然不同的方式。而這兩種方式,適用於不區分函式與方法差異的語言之中。

而在會區別函式與方法的語言中,方法中的this就還會有不同的實現方式,例如,從Python的實例取得方法的話,方法首個參數就必然綁定dot的左運算元,就算該方法被指定為另一實例作為特性,呼叫該方法時,也不會改變首個參數的值。

語言為了增加易用性,其實都會有不少隱含的行為,this只是其中一個例子,多數語言選擇把this參數當成是隱含的行為,Python卻是選擇明確,然而在某些地方它又具備有隱含的風格,而這正是不同語言各自擁有的獨特性。

除了從經驗與應用場合來掌握這類獨特性之外,如果能夠從實作層面來理解語言的這類機制,會是個更為務實的方式,像是在閱讀討論this這類的文件時,就更能理解其中探討的內容,或辨別內容的正確性,從而能夠以更為簡單的方式,來掌握這類變化多端的特性。

【複本資料管理伺服器:Actifio Virtual Data Pipeline】資料中心備份應用後起之秀,新興複本資料管理領域先驅產品

$
0
0

成立於2009年、2011年才發表首版產品的Actifio,雖然歷史很短,但已是資料中心備份還原解決方案的領導者之一。事實上,該公司的Actifio Virtual Data Pipeline軟體平臺,功能已不僅止於備份與還原,還進一步開創出「複本資料管理(Copy Data Management,CDM)」這個嶄新的領域,以快照(Snpshot)技術為基礎,兼具了備份與快照的特性,可為實體、虛擬與公有雲等多種環境,因應當中的備份、開發、測試、分析等需求,提供資料複本應用服務。

與傳統備份還原產品相比,CDM只是進入市場不過6、7年時間,屬於新進產品類型,但發展速度非常快,短短幾年內就成為備份領域的要角。舉例來說,在Gartner的2017資料中心備份還原解決方案關鍵能力報告中,Actifio與Rubrik兩家廠商的CDM類型產品,便獲得最高的累計總分評價,還略為領先Veritas、Commvault、IBM與ARCserve等廠商的老牌備份產品,顯示CDM這種新型態產品,功能已受到肯定。

而在Gartner2017年資料中心備份還原解決方案魔力象限報告中,Actifio與Rubrik這兩家廠商,被列為具願景者(Visionaries),顯示CDM這種新興產品的供應商,雖然受限於歷史與規模,在服務支援能力、經營團隊的管理能力與經驗方面,尚有待完善,但仍具備前瞻性與創新潛力。

也就是說,無論是就產品本身的功能,還是廠商對於資料保護應用的概念,CDM都受到業界相當高的注目。

而Actifio則是CDM領域的先驅,獨力開創了這種嶄新的產品形式,在該公司發表產品過後4、5年,才有其他廠商跟進推出類似架構的產品。

以專屬的Virtual Data Pipeline軟體平臺為基礎,Actifio可提供Sky VM伺服器軟體與CDS閘道器硬體兩種產品,為用戶的虛擬平臺或實體主機,提供基於快照技術的資料複本服務,包括備份、開發測試與等分析等應用。

同時提供虛擬與實體型式產品

Actifio目前提供了兩種產品型式:

(1)硬體式的CDS閘道器:CDS是Copy Data Storage的縮寫,搭載了Virtual Data Pipeline(VDP)軟體,用於搭配第三方儲存陣列的儲存空間,提供CDM管理服務。

(2)Sky虛擬化應用伺服器,包裝為VM型式的Actifio CDM伺服器,可支援VMware vSphere與微軟Hyper-V兩種虛擬化平臺,以及AWS、微軟Azure、Google Cloud Platform、IBM SoftLayer與Oracle Cloud等雲端平臺的部署。

Actifio一開始在2011年推出的首款產品是CDS閘道器,已陸續更新了5個世代的硬體規格,至於Sky虛擬伺服器則是於2014年第4季推出。

支援虛擬、實體與雲端平臺應用

無論是實體的CDS閘道器,還是軟體版的Sky虛擬伺服器,核心都同樣是Actifio的VDP軟體平臺。而且,自2011年問世以來,這個平臺已經發展了5個主要版本。

VDP最早的版本是搭配CDS伺服器的4.0版,建構了系統架構雛形:接下來的5.0能支援VMware虛擬平臺部署,以及Oracle與SQL Server等應用程式的保護;6.0版是一個重大更新版本,把部署範圍擴展到微軟Hyper-V,提供了Oracle與SQL Server資料庫的快速掛載功能,以及選購的異地災難備援功能。

到了7.0版,VDP除了升級支援新版VMware與微軟虛擬平臺(vSphere 6.0與Hyper-V 2012/2012 R2),還新增支援AWS與微軟Azure兩種雲端平臺,並引進了全新的Actifio Global Manager控制臺,可利用HTML5網頁控制臺介面,同時管理多臺CDS或Sky虛擬閘道器。

後續的VDP 8.0進一步擴大支援範圍,包括新版VMware與微軟的虛擬化平臺(vSphere 6.5與Hyper-V 2016),雲端環境支援的範圍,也增加了Google Cloud Platform、IBM SoftLayer與Oracle Cloud,並將「首次完整備份+後續永遠增量備份」模式,套用到雲端環境上。這版本另一重要功能,是提供混合雲架構的備份管理服務,可將實體或虛擬平臺的Windows與Linux備份複本,轉存到vSphere、Hyper-V虛擬環境,或AWS EC2、Azure、Google Cloud Platform雲端環境上部署啟用。目前VDP最新版本是8.0.6版,8.1版也預定於7月底推出。

7年間歷經5次重大改版後,Actifio VDP已成為支援涵蓋非常廣泛的平臺,擁有CDS硬體閘道器與Sky虛擬伺服器兩種產品型式,既能部署於vSphere與Hyper-V虛擬環境,也能部署在主要公有雲平臺上。可對應的作業環境與應用程式也非常多樣化,從vSphere與Hyper-V,Windows、Linux與Unix等作業系統,以及Oracle、SQL、Exchange等應用程式,到AWS、Azure等雲端環境下的VM等,Actifio都能透過API與代理程式,提供備份保護,以及資料複本應用服務。

結合快照與備份的CDM服務

雖然Actifio被Gartner列入資料中心備份還原供應商,但備份其實只是Actifio VDP軟體平臺的其中一個應用面向,Actifio的CDM管理架構可提供更廣泛的應用。

CDM的基本概念,是快照與複製技術的結合,先在來源端系統透過快照取得不同時間點下的資料複本,然後利用遠端複製將複本傳送到CDM伺服器保存,接著CDM伺服器再以這些複本為基礎,利用虛擬化技術複製出多個複本,用於備份還原、開發測試、分析等應用。

Actifio可以透過VMware VADP、VSS等應用程式API,提供無代理程式的保護架構,不過若搭配專屬的Actifio Connector代理程式,能對實體或虛擬主機上的資料庫等應用程式,提供具有資料一致性、且還原粒度更精細的保護。

運作時,Actifio會依照預設排程,透過API或代理程式在前端系統啟動快照,然後將快照傳送到Actifio管理的儲存區,產生Actifio的內部快照複本。

除了第一次擷取複本時,需獲取來源端全量(Full)資料外,後續複本擷取作業都是增量模式(Incremental),只需傳輸異動資料區塊即可,Actifio會將自動異動區塊合成不同時間點的完整複本,以減少傳輸頻寬與儲存空間需求。

由於Actifio擷取的複本都是原始格式,能讓前端系統立即存取使用,所以,Actifio可利用虛擬化的技術,將指定時間點的複本產生多份虛擬複本(Virtual Copy),分別提供不同主機來掛載,用於資料還原、或開發測試等用途。用戶也可在兩個站點的Actifio伺服器之間,透過遠端複製建立備援架構。

藉由Actifio的CDM架構,既可像備份軟體一樣,於線上環境之外,獨立地長期保存與管理資料複本,以備意外時的還原之需;又能像快照一樣,即時製作資料複本,並透過掛載立即使用資料複本,快速回應臨時性的複本需求。也就是說,只需要CDM這一個平臺,便能同時滿足備份/還原這種「靜態」形式的複本需求,以及開發測試這類「動態」形式的複本用途,將企業兩大類複本應用需求合而為一,同時,還兼有異地備援功能。

 

Actifio VDP平臺的運作架構

Actifio VDP軟體平臺的運作方式,可說是複本資料管理(CDM)產品的範本,整個運作架構可分為3大階段,分別是(1)擷取資料;(2)資料保存與管理;(3)使用複本:

1. 擷取資料Capture:透過代理程式或API,在來源端系統上啟動快照,擷取來源端系統資料的複本

Actifio VDP同時支援代理程式,與無代理程式等兩種資料擷取方式。

首先,Actifio的代理程式稱作Connector,可將來源端系統的快照複本,以Block形式直接複製、傳輸到Snapshot Pool,若來源端系統本身擁有區塊異動追蹤功能,如Oracle Recovery Manager所支援的BCT(Block Change Tracking)模式、Linux LVM的CBT(Change Block Tracking)模式,則Actifio Connector可配合使用其中的異動區塊追蹤功能,除了第一次複製,需完整傳輸來源端資料外,後續複製都只需傳送異動資料區塊,而能大幅提高複製作業效率。

而在VMware vSphere與微軟Hyper-V環境下,Actifio可無需部署代理程式,改為分別透過VMware的VADP與微軟VSS兩種API,來取得來源端VM的快照複本。其中的VMware VADP也擁有CBT功能,所以,也支援首次全備份+後續增量備份模式;而VSS則沒有CBT機制,因此,不具備只傳輸異動資料區塊的增量備份模式,但可以透過安裝Actifio 的Windows版本Connector代理程式,來提供CBT功能與增量備份服務。

2. 資料保存管理Manage:將快照複本複製到Actifio管理的儲存區存放,成為「黃金複本(Golden Image)」

Actifio系統會設定3個儲存區,包括系統用的Primary Pool(存放系統設定、資料庫等資料),以及保存複本用的Snapshot Pool與DeDupe Pool。近期的黃金複本存放於Snapshot Pool,較舊的複本則轉存到DeDupe Pool,透過重複資料刪除功能節省儲存空間。

其中Snapshot Pool保存的複本,是以原始的Block格式存放,可立即掛載使用,而存放於DeDupe Pool內的複本,則必須先還原到Snapshot Pool成為原始格式後,才能提供使用。

至於Actifio採用的DeDupe技術,則屬於後處理(Post DeDupe)類型,也就是擷取來源端資料後,再執行重複資料刪除運算並寫入DeDupe Pool。

3. 使用複本Use:基於黃金複本,產生多個虛擬複本,支援資料還原、開發測試應用,或以遠端複製轉存其他位置,提供異地備援

Actifio所取得的來源端資料複本,可透過虛擬化技術產生多個虛擬複本(Virtual Copy),並以Block Raw Device的原始形式,經由FC、iSCSI或是NFS協定,直接與有需求的主機連接,並且供其存取,用戶可選擇的複本掛載使用模式,主要有下列這幾種:

● 立即掛載(Instant Mount):無須將複本資料傳輸到前端主機,而直接從Actifio的儲存區上,將複本掛載給原始主機或其他主機存取,這也是最迅速、簡便的複本使用模式。

● 還原(Restore):將複本傳回原始來源端主機,將來源端還原到指定時間點狀態。這個模式需要耗用資料傳輸、寫回原始主機的時間,但由於Actifio的複本是原始的Block Raw Device格式,所以,只需抄回Block即可使用,無須像備份軟體一樣轉換格式,速度仍比一般的備份更快。

● 自動更新的複本(Live Clone):與備份作業連動的複本,當出現新的增量備份資料時,會將異動資料一併更新到這種複本上,讓複本保持在最新狀態。

● Clone複本(Clone):只適用於VMware vSphere環境,透過Actifio VDP的中介,將某臺ESX主機上的VM,在同一臺或另一臺ESX主機上產生一個VM複本,類似由Actifio中介執行的vMotion,但耗用資源較少。

而在異地的遠端複製方面,可在任兩臺Actifio應用伺服器之間進行,無論是實體的CDS閘道器,還是部署在用戶資料中心或公有雲上的的Sky虛擬伺服器。至於可選擇的遠端複製模式,則有下列幾種:

◎ 同步(Sync):與一般儲存設備的同步複製相同,但只適用於實體的CDS閘道器之間,才能執行同步複製。,

◎ 非同步(Async):Actifio提供了兩種非同步複製模式,均提供FIPS 140-2標準的加密、Block壓縮、Block層級續傳與排程頻寬控制功能。

― 重複資料刪除非同步複製(Dedup Async Replication,DAR):適用於CDS閘道器與Sky虛擬伺服器,這個模式藉由比對兩站點當中、經DeDupe後的複本資料差異,然後只傳送目的地端沒有的資料區塊,藉此可大幅節省資料傳輸頻寬。

― Streamsnap:只適用於Sky虛擬伺服器,單純地將來源端站點資料複製到異地端,並採用「首次完整傳輸+後續增量傳輸」方式來運作。

除了遠端複製以外,Actifio還提供了在兩站點CDS或Sky伺服器之間的Remote DeDupe功能,可將DeDupe Pool中保存的資料複本,於異地端也保存一份。

 

Actifio的產品形式與版本區分

CDS儲存閘道器

CDS閘道器透過運行Actifio VDP軟體,搭配後端介接的儲存設備空間來提供備份與各式複本管理服務。

 

視用戶環境需要,Actifio提可供實體硬體型式的CDS閘道器,與虛擬的Sky伺服器軟體兩種型態的產品。

CDS閘道器

CDS閘道器是預載Actifio VDP軟體的2U伺服器,提供CDM複本管理服務,本身不提供資料儲存空間,至於複本儲存空間,由CDS閘道器後端介接的SAN儲存陣列提供。

一套CDS系統有2臺閘道器,構成高可用性架構,依用戶需求可提供從25TB起跳到PB等級的來源端資料容量授權。

目前CDS閘道器硬體是第5代規格,每臺都含有用於連接前端主機的4組10GbE埠與3組GbE埠,以及用於介接前端主機或後端儲存設備的4組8Gb FC埠。

Sky虛擬伺服器

Sky虛擬伺服器是用於部署在虛擬平臺或雲端環境的「虛擬化版本CDS閘道器」,可提供OVA、VHD、AMI或其他映像檔格式。

授權方式則是依照前端被保護系統的容量來計算,以搭配AWS、Azure、Google Cloud Platform與Oracle Cloud的Sky伺服器為例,就分為Sky 60、Sky 120與Sky 200等3種授權,分別可保護60TB、120TB與200TB的前端系統資料。

Sky伺服器也可依功能分為Standard、Advanced等2種版本。區別在於Standard版只支援VM的保護,若用戶環境含有實體主機,或IBM AIX、HP-UX與Solaris等Unix系統,則必須改用Advanced版才能支援。

 

Actifio的系統部署方式

Actifio Sky虛擬伺服器的安裝部署

以vSphere環境來說,只要將Actifio Sky虛擬伺服器的OVA檔匯入ESXi主機,然後登入Sky虛擬伺服器,設定網路與儲存環境參數,就能完成Actifio的系統部署。

 

無論是硬體型式的CDS閘道器,還是VM型式的Sky伺服器軟體,出貨時都是預載了Actifio VDP軟體,並設定好了基本系統組態的型式,用戶端只需完成網路參數等基本環境設定即可啟用,而無需執行VDP軟體的安裝程序。

以CDS閘道器來說,只需開機,執行基本網路設定,將SAN儲存設備的空間掛載給CDS閘道器使用,即可開始運作。

而Sky虛擬伺服器的部署程序為:取得VMWare OVA、微軟Hyper-V VHDX部署檔案,匯入Hypervisor主機,然後開機、執行基本網路設定,設定Sky伺服器需要的虛擬儲存空間,即可開始運作。

兩種雲端整合模式

Actifio VDP部署時,可採取兩種與公有雲整合的模式。

ㄧ為單純只使用公有雲儲存空間的Vault模式,也就是將公有雲的空間,作為本地端Actifio VDP的延伸備份儲存空間,無須在雲端部署任何軟體,只需讓Actifio VDP連結與存取用戶的雲端儲存空間即可,但沒有DeDupe功能。

二為在公有雲上部署Actifio的Sky虛擬伺服器,可使用雲端儲存空間之餘,也等同於在公有雲上部署一個Actifio VDP環境,可啟用DeDupe功能,並能扮演本地端Actifio VDP環境的異地備援站點角色。

在VDP V8.0版以後,用戶還可利用當中的Cloud Mobility功能,在本地端或不同雲端環境間轉移來源端實體或虛擬主機資料(但目前僅限於Windows與Linux主機)。

 

Actifio的系統管理

無論硬體型式的CDS閘道器,或是VM型式的Sky虛擬伺服器,Actifio都提供了3個層級管理功能。

(1)系統維護的層級:在實體CDS閘道器,具有可直連螢幕操作的文字命令列控制臺,Sky虛擬伺服器的部分,也具備可透過虛擬管理介面的文字命令列控制臺,但僅供原廠系統維護使用。

(2)系統管理的層級:基於Adobe AIR環境、獨立安裝的Actifio Desktop管理軟體,提供圖形介面的系統監控、備份政策與複本使用管理功能。

(3)跨多臺系統的管理:透過Actifio Global Manager的HTML 5圖形網頁介面,同時管理多臺CDS閘道器或Sky虛擬伺服器,執行系統監控與備份管理功能。

對一般用戶來說,最重要的部分是Actifio Desktop管理軟體。在Windows或Mac環境上,只需安裝它,便能登入CDS閘道器或Sky虛擬伺服器,執行管理工作。

Actifio Desktop提供了5大管理功能,包括即時顯示系統狀態的Dashboard,用於系統管理的Domain Manager(使用權限、基本環境設定、升級等),備份策略管理的SLA Editor,設定來源端型式與管理複本應用的Application Manager,以及即時監控與查詢作業狀態的System Monitor等。

目前Actifio Desktop仍是基於Adobe AIR環境,不過在Actifio VDP 8.1版以後,預定提供更方便使用的HTML5網頁控制臺介面,取而代之。

Actifio Desktop管理控制臺

管理者可使用Actifio Desktop控制臺,登入Actifio的CDS閘道器或Sky虛擬伺服器,執行監控與管理系統作業。圖為即時顯示系統狀態的DashBoard介面,Actifio Desktop剛經過一輪改版,整個介面較上ㄧ版精緻許多。

可利用拖拉圖形介面來定義備份政策

利用Actifio Desktop控制臺,管理者可透過SLA Editor管理項目的SLA Architect功能,以拖拉物件方式建立備份政策的模版,然後套到特定來源端系統的備份作業使用。

直接掛載複本提供多種應用

利用Actifio Desktop控制臺的Application Manager選項,用戶就能將Actifio Sky虛擬伺服器保存的複本資料,掛載給指定的主機存取,能支援還原、開發、分析等不同用途。

 

 產品資訊 

Actifio Virtual Data Pipeline

●建議售價:廠商未提供

●原廠:Actifio

 ●經銷代理:精技電腦(02)2795-8839

●支援部署環境:VMware Sphere,微軟Hyper-V,AWS,微軟Azure,Goole Cloud,Oracle Cloud,IBM Softflyer

●支援環境:Windows, Linux, AIX, HP-UX, Solaris

●支援應用程式與資料庫:Oracle, SQL Server, SAP HANA, Sybase ASE, DB2, MySQL, MariaDB, Postgres, MongoDB

Viewing all 31461 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>