Google Spanner簡介
Spanner 是Google的全球級的分布式數(shù)據庫 (Globally-Distributed Database) 。Spanner的擴展性達到了令人咋舌的全球級,可以擴展到數(shù)百萬的機器,數(shù)已百計的數(shù)據中心,上萬億的行。更給力的是,除了夸張的擴展性之外,他還能同時通過同步復制和多版本來滿足外部一致性,可用性也是很好的。沖破CAP的枷鎖,在三者之間完美平衡。
Spanner是個可擴展,多版本,全球分布式還支持同步復制的數(shù)據庫。他是Google的第一個可以全球擴展并且支持外部一致的事務。Spanner能做到這些,離不開一個用GPS和原子鐘實現(xiàn)的時間API。這個API能將數(shù)據中心之間的時間同步精確到10ms以內。因此有幾個給力的功能:無鎖讀事務,原子schema修改,讀歷史數(shù)據無block。
EMC中國研究院實時緊盯業(yè)界動態(tài),Google最近發(fā)布的一篇論文《Spanner: Google’s Globally-Distributed Database》, 筆者非常感興趣,對Spanner進行了一些調研,并在這里分享。由于Spanner并不是開源產品,筆者的知識主要來源于Google的公開資料,通過現(xiàn)有公開資料僅僅只能窺得Spanner的滄海一粟,Spanner背后還依賴有大量Google的專有技術。
下文主要是Spanner的背景,設計和并發(fā)控制。
Spanner背景
要搞清楚Spanner原理,先得了解Spanner在Google的定位。
從上圖可以看到。Spanner位于F1和GFS之間,承上啟下。所以先提一提F1和GFS。
F1
和眾多互聯(lián)網公司一樣,在早期Google大量使用了Mysql。Mysql是單機的,可以用Master-Slave來容錯,分區(qū)來擴展。但是需要大量的手工運維工作,有很多的限制。因此Google開發(fā)了一個可容錯可擴展的RDBMS——F1。和一般的分布式數(shù)據庫不同,F(xiàn)1對應RDMS應有的功能,毫不妥協(xié)。起初F1是基于Mysql的,不過會逐漸遷移到Spanner。
F1有如下特點:
· 7×24高可用。哪怕某一個數(shù)據中心停止運轉,仍然可用。
· 可以同時提供強一致性和弱一致。
· 可擴展
· 支持SQL
· 事務提交延遲50-100ms,讀延遲5-10ms,高吞吐
眾所周知Google BigTable是重要的NoSql產品,提供很好的擴展性,開源世界有HBase與之對應。為什么Google還需要F1,而不是都使用BigTable呢?因為BigTable提供的最終一致性,一些需要事務級別的應用無法使用。同時BigTable還是NoSql,而大量的應用場景需要有關系模型。就像現(xiàn)在大量的互聯(lián)網企業(yè)都使用Mysql而不愿意使用HBase,因此Google才有這個可擴展數(shù)據庫的F1。而Spanner就是F1的至關重要的底層存儲技術。
Colossus(GFS II)
Colossus也是一個不得不提起的技術。他是第二代GFS,對應開源世界的新HDFS。GFS是著名的分布式文件系統(tǒng)。
初代GFS是為批處理設計的。對于大文件很友好,吞吐量很大,但是延遲較高。所以使用他的系統(tǒng)不得不對GFS做各種優(yōu)化,才能獲得良好的性能。那為什么Google沒有考慮到這些問題,設計出更完美的GFS ?因為那個時候是2001年,Hadoop出生是在2007年。如果Hadoop是世界領先水平的話,GFS比世界領先水平還領先了6年。同樣的Spanner出生大概是2009年,現(xiàn)在我們看到了論文,估計Spanner在Google已經很完善,同時Google內部已經有更先進的替代技術在醞釀了。筆者預測,最早在2015年才會出現(xiàn)Spanner和F1的山寨開源產品。
Colossus是第二代GFS。Colossus是Google重要的基礎設施,因為他可以滿足主流應用對FS的要求。Colossus的重要改進有:
· 優(yōu)雅Master容錯處理 (不再有2s的停止服務時間)
· Chunk大小只有1MB (對小文件很友好)
· Master可以存儲更多的Metadata(當Chunk從64MB變?yōu)?MB后,Metadata會擴大64倍,但是Google也解決了)
Colossus可以自動分區(qū)Metadata。使用Reed-Solomon算法來復制,可以將原先的3份減小到1.5份,提高寫的性能,降低延遲。客戶端來復制數(shù)據。具體細節(jié)筆者也猜不出。
與BigTable, Megastore對比
Spanner主要致力于跨數(shù)據中心的數(shù)據復制上,同時也能提供數(shù)據庫功能。在Google類似的系統(tǒng)有BigTable和Megastore。和這兩者相比,Spanner又有什么優(yōu)勢呢。
BigTable在Google得到了廣泛的使用,但是他不能提供較為復雜的Schema,還有在跨數(shù)據中心環(huán)境下的強一致性。Megastore有類RDBMS的數(shù)據模型,同時也支持同步復制,但是他的吞吐量太差,不能適應應用要求。Spanner不再是類似BigTable的版本化 key-value存儲,而是一個“臨時多版本”的數(shù)據庫。何為“臨時多版本”,數(shù)據是存儲在一個版本化的關系表里面,存儲的時間數(shù)據會根據其提交的時間打上時間戳,應用可以訪問到較老的版本,另外老的版本也會被垃圾回收掉。
Google官方認為 Spanner是下一代BigTable,也是Megastore的繼任者。
Google Spanner設計
功能
從高層看Spanner是通過Paxos狀態(tài)機將分區(qū)好的數(shù)據分布在全球的。數(shù)據復制全球化的,用戶可以指定數(shù)據復制的份數(shù)和存儲的地點。Spanner可以在集群或者數(shù)據發(fā)生變化的時候將數(shù)據遷移到合適的地點,做負載均衡。用戶可以指定將數(shù)據分布在多個數(shù)據中心,不過更多的數(shù)據中心將造成更多的延遲。用戶需要在可靠性和延遲之間做權衡,一般來說復制1,2個數(shù)據中心足以保證可靠性。
作為一個全球化分布式系統(tǒng),Spanner提供一些有趣的特性。
· 應用可以細粒度的指定數(shù)據分布的位置。精確的指定數(shù)據離用戶有多遠,可以有效的控制讀延遲(讀延遲取決于最近的拷貝)。指定數(shù)據拷貝之間有多遠,可以控制寫的延遲(寫延遲取決于最遠的拷貝)。還要數(shù)據的復制份數(shù),可以控制數(shù)據的可靠性和讀性能。(多寫幾份,可以抵御更大的事故)
· Spanner還有兩個一般分布式數(shù)據庫不具備的特性:讀寫的外部一致性,基于時間戳的全局的讀一致。這兩個特性可以讓Spanner支持一致的備份,一致的MapReduce,還有原子的Schema修改。
這寫特性都得益有Spanner有一個全球時間同步機制,可以在數(shù)據提交的時候給出一個時間戳。因為時間是系列化的,所以才有外部一致性。這個很容易理解,如果有兩個提交,一個在T1,一個在T2。那有更晚的時間戳那個提交是正確的。
這個全球時間同步機制是用一個具有GPS和原子鐘的TrueTime API提供了。這個TrueTime API能夠將不同數(shù)據中心的時間偏差縮短在10ms內。這個API可以提供一個精確的時間,同時給出誤差范圍。Google已經有了一個TrueTime API的實現(xiàn)。筆者覺得這個TrueTimeAPI 非常有意義,如果能單獨開源這部分的話,很多數(shù)據庫如MongoDB都可以從中受益。
體系結構
Spanner由于是全球化的,所以有兩個其他分布式數(shù)據庫沒有的概念。
· Universe。一個Spanner部署實例稱之為一個Universe。目前全世界有3個。一個開發(fā),一個測試,一個線上。因為一個Universe就能覆蓋全球,不需要多個。
· Zones. 每個Zone相當于一個數(shù)據中心,一個Zone內部物理上必須在一起。而一個數(shù)據中心可能有多個Zone。可以在運行時添加移除Zone。一個Zone可以理解為一個BigTable部署實例。
如圖所示。一個Spanner有上面一些組件。實際的組件肯定不止這些,比如TrueTime API Server。如果僅僅知道這些知識,來構建Spanner是遠遠不夠的。但Google都略去了。那筆者就簡要介紹一下。
· Universemaster: 監(jiān)控這個universe里zone級別的狀態(tài)信息
· Placement driver:提供跨區(qū)數(shù)據遷移時管理功能
· Zonemaster:相當于BigTable的Master。管理Spanserver上的數(shù)據。
· Location proxy:存儲數(shù)據的Location信息。客戶端要先訪問他才知道數(shù)據在那個Spanserver上。
· Spanserver:相當于BigTable的ThunkServer。用于存儲數(shù)據。
可以看出來這里每個組件都很有料,但是Google的論文里只具體介紹了Spanserver的設計,筆者也只能介紹到這里。下面詳細闡述Spanserver的設計。
Spanserver
本章詳細介紹Spanserver的設計實現(xiàn)。Spanserver的設計和BigTable非常的相似。參照下圖:
從下往上看。每個數(shù)據中心會運行一套Colossus (GFS II) 。每個機器有100-1000個tablet。Tablet概念上將相當于數(shù)據庫一張表里的一些行,物理上是數(shù)據文件。打個比方,一張1000行的表,有10個tablet,第1-100行是一個tablet,第101-200是一個tablet。但和BigTable不同的是BigTable里面的tablet存儲的是Key-Value都是string,Spanner存儲的Key多了一個時間戳:
(Key: string, timestamp: int64) ->string。
因此spanner天生就支持多版本,tablet在文件系統(tǒng)中是一個B-tree-like的文件和一個write-ahead日志。
每個Tablet上會有一個Paxos狀態(tài)機。Paxos是一個分布式一致性協(xié)議。Table的元數(shù)據和log都存儲在上面。Paxos會選出一個replica做leader,這個leader的壽命默認是10s,10s后重選。Leader就相當于復制數(shù)據的master,其他replica的數(shù)據都是從他那里復制的。讀請求可以走任意的replica,但是寫請求只有去leader。這些replica統(tǒng)稱為一個paxos group。
每個leader replica的spanserver上會實現(xiàn)一個lock table還管理并發(fā)。Lock table記錄了兩階段提交需要的鎖信息。但是不論是在Spanner還是在BigTable上,但遇到沖突的時候長時間事務會將性能很差。所以有一些操作,如事務讀可以走lock table,其他的操作可以繞開lock table。
每個leader replica的spanserver上還有一個transaction manager。如果事務在一個paxos group里面,可以繞過transaction manager。但是一旦事務跨多個paxos group,就需要transaction manager來協(xié)調。其中一個Transactionmanager被選為leader,其他的是slave聽他指揮。這樣可以保證事務。
Directories and Placement
之所以Spanner比BigTable有更強的擴展性,在于Spanner還有一層抽象的概念directory, directory是一些key-value的集合,一個directory里面的key有一樣的前綴。更妥當?shù)慕蟹ㄊ莃ucketing。Directory是應用控制數(shù)據位置的最小單元,可以通過謹慎的選擇Key的前綴來控制。據此筆者可以猜出,在設計初期,Spanner是作為F1的存儲系統(tǒng)而設立,甚至還設計有類似directory的層次結構,這樣的層次有很多好處,但是實現(xiàn)太復雜被摒棄了。
Directory作為數(shù)據放置的最小單元,可以在paxos group里面移來移去。Spanner移動一個directory一般出于如下幾個原因:
· 一個paxos group的負載太大,需要切分
· 將數(shù)據移動到access更近的地方
· 將經常同時訪問的directory放到一個paxos group里面
Directory可以在不影響client的前提下,在后臺移動。移動一個50MB的directory大概需要的幾秒鐘。
那么directory和tablet又是什么關系呢。可以理解為Directory是一個抽象的概念,管理數(shù)據的單元;而tablet是物理的東西,數(shù)據文件。由于一個Paxos group可能會有多個directory,所以spanner的tablet實現(xiàn)和BigTable的tablet實現(xiàn)有些不同。BigTable的tablet是單個順序文件。Google有個項目,名為Level DB,是BigTable的底層,可以看到其實現(xiàn)細節(jié)。而Spanner的tablet可以理解是一些基于行的分區(qū)的容器。這樣就可以將一些經常同時訪問的directory放在一個tablet里面,而不用太在意順序關系。
在paxos group之間移動directory是后臺任務。這個操作還被用來移動replicas。移動操作設計的時候不是事務的,因為這樣會造成大量的讀寫block。操作的時候是先將實際數(shù)據移動到指定位置,然后再用一個原子的操作更新元數(shù)據,完成整個移動過程。
Directory還是記錄地理位置的最小單元。數(shù)據的地理位置是由應用決定的,配置的時候需要指定復制數(shù)目和類型,還有地理的位置。比如(上海,復制2份;南京復制1分) 。這樣應用就可以根據用戶指定終端用戶實際情況決定的數(shù)據存儲位置。比如中國隊的數(shù)據在亞洲有3份拷貝, 日本隊的數(shù)據全球都有拷貝。
前面對directory還是被簡化過的,還有很多無法詳述。
數(shù)據模型
Spanner的數(shù)據模型來自于Google內部的實踐。在設計之初,Spanner就決心有以下的特性:
· 支持類似關系數(shù)據庫的schema
· Query語句
· 支持廣義上的事務
為何會這樣決定呢?在Google內部還有一個Megastore,盡管要忍受性能不夠的折磨,但是在Google有300多個應用在用它,因為Megastore支持一個類似關系數(shù)據庫的schema,而且支持同步復制 (BigTable只支持最終一致的復制) 。使用Megastore的應用有大名鼎鼎的Gmail, Picasa, Calendar, Android Market和AppEngine。 而必須對Query語句的支持,來自于廣受歡迎的Dremel,筆者不久前寫了篇文章來介紹他。 最后對事務的支持是比不可少了,BigTable在Google內部被抱怨的最多的就是其只能支持行事務,再大粒度的事務就無能為力了。Spanner的開發(fā)者認為,過度使用事務造成的性能下降的惡果,應該由應用的開發(fā)者承擔。應用開發(fā)者在使用事務的時候,必須考慮到性能問題。而數(shù)據庫必須提供事務機制,而不是因為性能問題,就干脆不提供事務支持。
數(shù)據模型是建立在directory和key-value模型的抽象之上的。一個應用可以在一個universe中建立一個或多個database,在每個database中建立任意的table。Table看起來就像關系型數(shù)據庫的表。有行,有列,還有版本。Query語句看起來是多了一些擴展的SQL語句。
Spanner的數(shù)據模型也不是純正的關系模型,每一行都必須有一列或多列組件。看起來還是Key-value。主鍵組成Key,其他的列是Value。但這樣的設計對應用也是很有裨益的,應用可以通過主鍵來定位到某一行。
上圖是一個例子。對于一個典型的相冊應用,需要存儲其用戶和相冊。可以用上面的兩個SQL來創(chuàng)建表。Spanner的表是層次化的,最頂層的表是directory table。其他的表創(chuàng)建的時候,可以用interleave in parent來什么層次關系。這樣的結構,在實現(xiàn)的時候,Spanner可以將嵌套的數(shù)據放在一起,這樣在分區(qū)的時候性能會提升很多。否則Spanner無法獲知最重要的表之間的關系。
TrueTime
TrueTime API 是一個非常有創(chuàng)意的東西,可以同步全球的時間。上表就是TrueTime API。TT.now()可以獲得一個絕對時間TTinterval,這個值和UnixTime是相同的,同時還能夠得到一個誤差e。TT.after(t)和TT.before(t)是基于TT.now()實現(xiàn)的。
那這個TrueTime API實現(xiàn)靠的是GFS和原子鐘。之所以要用兩種技術來處理,是因為導致這兩個技術的失敗的原因是不同的。GPS會有一個天線,電波干擾會導致其失靈。原子鐘很穩(wěn)定。當GPS失靈的時候,原子鐘仍然能保證在相當長的時間內,不會出現(xiàn)偏差。
實際部署的時候。每個數(shù)據中心需要部署一些Master機器,其他機器上需要有一個slave進程來從Master同步。有的Master用GPS,有的Master用原子鐘。這些Master物理上分布的比較遠,怕出現(xiàn)物理上的干擾。比如如果放在一個機架上,機架被人碰倒了,就全宕了。另外原子鐘不是并很貴。Master自己還會不斷比對,新的時間信息還會和Master自身時鐘的比對,會排除掉偏差比較大的,并獲得一個保守的結果。最終GPS master提供時間精確度很高,誤差接近于0。
每個Slave后臺進程會每個30秒從若干個Master更新自己的時鐘。為了降低誤差,使用Marzullo算法。每個slave還會計算出自己的誤差。這里的誤差包括的通信的延遲,機器的負載。如果不能訪問Master,誤差就會越走越大,知道重新可以訪問。
Google Spanner并發(fā)控制
Spanner使用TrueTime來控制并發(fā),實現(xiàn)外部一致性。支持以下幾種事務。
· 讀寫事務
· 只讀事務
· 快照讀,客戶端提供時間戳
· 快照讀,客戶端提供時間范圍
例如一個讀寫事務發(fā)生在時間t,那么在全世界任何一個地方,指定t快照讀都可以讀到寫入的值。
上表是Spanner現(xiàn)在支持的事務。單獨的寫操作都被實現(xiàn)為讀寫事務 ; 單獨的非快照被實現(xiàn)為只讀事務。事務總有失敗的時候,如果失敗,對于這兩種操作會自己重試,無需應用自己實現(xiàn)重試循環(huán)。
時間戳的設計大大提高了只讀事務的性能。事務開始的時候,要聲明這個事務里沒有寫操作,只讀事務可不是一個簡單的沒有寫操作的讀寫事務。它會用一個系統(tǒng)時間戳去讀,所以對于同時的其他的寫操作是沒有Block的。而且只讀事務可以在任意一臺已經更新過的replica上面讀。
對于快照讀操作,可以讀取以前的數(shù)據,需要客戶端指定一個時間戳或者一個時間范圍。Spanner會找到一個已經充分更新好的replica上讀取。
還有一個有趣的特性的是,對于只讀事務,如果執(zhí)行到一半,該replica出現(xiàn)了錯誤。客戶端沒有必要在本地緩存剛剛讀過的時間,因為是根據時間戳讀取的。只要再用剛剛的時間戳讀取,就可以獲得一樣的結果。
讀寫事務
正如BigTable一樣,Spanner的事務是會將所有的寫操作先緩存起來,在Commit的時候一次提交。這樣的話,就讀不出在同一個事務中寫的數(shù)據了。不過這沒有關系,因為Spanner的數(shù)據都是有版本的。
在讀寫事務中使用wound-wait算法來避免死鎖。當客戶端發(fā)起一個讀寫事務的時候,首先是讀操作,他先找到相關數(shù)據的leader replica,然后加上讀鎖,讀取最近的數(shù)據。在客戶端事務存活的時候會不斷的向leader發(fā)心跳,防止超時。當客戶端完成了所有的讀操作,并且緩存了所有的寫操作,就開始了兩階段提交。客戶端閑置一個coordinator group,并給每一個leader發(fā)送coordinator的id和緩存的寫數(shù)據。
leader首先會上一個寫鎖,他要找一個比現(xiàn)有事務晚的時間戳。通過Paxos記錄。每一個相關的都要給coordinator發(fā)送他自己準備的那個時間戳。
Coordinatorleader一開始也會上個寫鎖,當大家發(fā)送時間戳給他之后,他就選擇一個提交時間戳。這個提交的時間戳,必須比剛剛的所有時間戳晚,而且還要比TT.now()+誤差時間 還有晚。這個Coordinator將這個信息記錄到Paxos。
在讓replica寫入數(shù)據生效之前,coordinator還有再等一會。需要等兩倍時間誤差。這段時間也剛好讓Paxos來同步。因為等待之后,在任意機器上發(fā)起的下一個事務的開始時間,都比如不會比這個事務的結束時間早了。然后coordinator將提交時間戳發(fā)送給客戶端還有其他的replica。他們記錄日志,寫入生效,釋放鎖。
只讀事務
對于只讀事務,Spanner首先要指定一個讀事務時間戳。還需要了解在這個讀操作中,需要訪問的所有的讀的Key。Spanner可以自動確定Key的范圍。
如果Key的范圍在一個Paxos group內。客戶端可以發(fā)起一個只讀請求給group leader。leader選一個時間戳,這個時間戳要比上一個事務的結束時間要大。然后讀取相應的數(shù)據。這個事務可以滿足外部一致性,讀出的結果是最后一次寫的結果,并且不會有不一致的數(shù)據。
如果Key的范圍在多個Paxos group內,就相對復雜一些。其中一個比較復雜的例子是,可以遍歷所有的group leaders,尋找最近的事務發(fā)生的時間,并讀取。客戶端只要時間戳在TT.now().latest之后就可以滿足要求了。