2014年7/8月號的《美國科學家》雜志發表了brianhayes的文章《文學與大數據一相逢》。他說,雖然大數據概念近些年才熱起來,但早在19世紀,人們就見到了文學作品的定量分析的身影。
在計算機尚未問世時,英國統計學家g.udnyyule和c.b.williams就嘗試過如何利用句長的差異來表征不同的文學風格,識別不同的作者。1964年,出現了史上第一個主題為“文學數據處理”的學術會議,參會者有150人,討論題目包括“計算文體學”,還有在計算機輔助下就彌爾頓對雪萊之影響作出估計。更早的時候,frederickmosteller和davidl.wallace就曾對《聯邦黨人文集》中常見詞的詞頻(例如also、an、by、of)進行統計分析,試圖確定哪些文章是漢密爾頓寫的,哪些文章是麥迪遜寫的。
brianhayes特別想介紹的是19世紀美國的兩位“數字人文學”先驅人物。一位叫thomascorwinmendenhall(1841~1924),是科學家,曾任印第安納州羅斯理工學院的院長、美國國家科學院院士和美國科學促進會會長。1887年,他在《科學》雜志發表一篇文章《文章的特征曲線》。他認為,正如光譜線的模式可以表明存在著某化學元素一樣,通過“詞譜”或“特征曲線”也能表征一篇文章。他以狄更斯的《霧都孤兒》和薩克雷的《名利場》為研究對象,看看兩人的“詞譜”差異大不大,結果發現,差異不足以區分開兩個作者。
另一位先驅人物叫luciusadelnosherman(1847~1933),他的博士論文題目是《古英語詩歌“貓頭鷹與夜鶯”的語法分析》,從中可以看出他喜歡定量研究。例如,他統計了這首詩歌中用了多少介詞、連詞和否定式表達。1893年,sherman發表了一部著作《文學分析學:關于如何對英語散文與詩歌進行客觀研究的手冊》。《科學》雜志發表過一篇書評,稱此書是“劃時代”的作品。在書里,他想做的不僅僅是通過定量分析來區分作者,如mendenhall所嘗試過的,而且涉及更多內容。比如,他在講授英語文學演變的過程中,注意到了一樁事實:從14世紀的詩人喬叟到17世紀的莎士比亞,再到19世紀的愛默生,文學家們寫出的句子越來越簡單,擺脫了過去那種“凝重”和繁復。他從每個作家的作品中抽取500個句子,統計其平均句長。16世紀初的robertfabyan平均句長為63個單詞,19世紀的愛默生平均句長只有20.5個單詞。
他在搜集基礎數據方面是下了苦功夫的,比如某個暑假里,他花了三周的時間,從麥考萊的五卷本《英國史》中整理出了4萬多個句子中的單詞。當然,有學生給他幫忙,因為他是教授嘛。
按現在的標準來看,這些數字人文學的先驅所做的工作都很簡單,也不是那么成功,但是其開拓之功是不容否認的。有先進信息技術的助力,相信21世紀的數字人文學研究一定能別開生面。