撰文:李小蕾 加州大學戴維斯分校社會學系博士生
責編:李婷 中國人民大學人口與健康學院教授
從編寫代碼到生成圖片;從充當“百度百科”,到成為你的聊天搭子,人工智能已然“入侵”了我們生活的方方面面。甚至越來越多短劇都不再需要真人演員,讓 AI 直接生成劇情就好。
學術界當然不會置身事外。越來越多的研究者已經把 AI 工具引入自己的工作流程之中。對于社會科學領域來說,一個有趣而重要的問題是:社會學家、人口學家等社會科學工作者目前是如何使用人工智能的?他們又如何看待這項新技術?
![]()
在回答這個問題之前,我們先對本文所討論的“AI”做一個簡單的界定。這里主要指的是生成式人工智能(Generative AI, GenAI)。這類模型被設計用來生成文本、圖像、音頻或視頻等內容。在社會科學研究中,目前使用最廣泛的一類生成式 AI 是文本生成模型。在使用這些模型時,研究者通常需要先輸入一段提示語或指令。模型會以這段文字為起點,生成相應的回答或內容。
1.社會科學領域:
是誰在如何用 AI?
Alvero 等人在 2026 年發表的一項研究對 50 本社會學和人口學領域的頂級期刊的作者進行了調查和訪談(期刊包括 Demography、American Journal of Sociology、Annual Review of Sociology等)。
研究者從中選取了 219 名非計算社會科學學者和 214 名計算社會科學學者進行分析。計算社會科學學者在文章中的定義為那些在標題、摘要和關鍵字中包含計算機術語的文章的作者,而非計算社會科學學者則更多包括定性研究者,以及主要使用經典統計方法的量化研究者。
很多人可能會直覺地認為,既然計算社會科學學者本身就更熟悉技術,并且他們的工作更多的和代碼打交道,他們應該會更加離不開 AI。但研究結果卻顯示,事實并非如此。計算社會科學學者和非計算社會科學學者在 AI 的使用頻率和態度上差異其實非常小。對于計算型學者來說,“每周使用”是最常見的回答,但緊隨其后的則是“從不使用”。而對于非計算社會科學學者來說,“至少使用過一次”是最常見的回答,“每周使用”則排在第二位。
不過,這并不意味著社會科學研究靠 AI 已是風氣。在這項調查中,研究者將完成一項研究所涉及的不同階段進行了拆分,結果發現,大多數學者在各個研究階段其實都沒有使用人工智能。在那些確實使用過 AI 輔助科研的社會學家中,無論是計算型學者還是非計算型學者,最常見的使用場景都是寫作階段。例如,研究者會用 AI 來幫助潤色段落或者整理表達思路。與此同時,計算社會科學學者在數據分析任務中使用GenAI的比例(約 21.9%)略高于非計算型學者(約 13.6%)。
一些受訪者在訪談中還提到,他們會用 AI 來生成論文標題,或者自動化處理一些與科研相關的郵件溝通。
![]()
圖:社會科學研究者在科研中使用GenAI的頻率與研究階段
Source: Alvero, A. J. et al., 2026
2. 學者們為什么(不) 使用AI?
誰更相信它?
那么社會科學學者為什么會使用AI?又為什么對它仍然保持謹慎?
對于已經使用 AI 的社會科學學者來說,一個最直接的原因是:它確實能節省時間,也能滿足研究者的好奇心。與此同時,一個很現實的因素是,很多日常使用的工具已經開始整合 AI 功能。例如,在使用搜索引擎時,搜索結果頁面往往會自動生成 AI 摘要。這意味著,即使研究者沒有刻意去使用 AI,也無法避免它出現在自己的工作流程里。
此外,同輩壓力可能也是一個推動因素。有人擔心如果自己不使用 AI,就會在學術競爭中落后。正如一位受訪者所說:“我擔心我的研究過程會變得太‘慢’,甚至顯得過時。”不過,從整體調查結果來看,來自合作者、學科領域或學術機構的外部壓力其實并不強,即學界目前其實并沒有形成一種必須使用 AI 的制度性要求。
與此同時,一些母語非英語的學者也提到,AI 在寫作上的幫助讓他們在表達學術觀點時更加自信。
![]()
然而,在 AI 是否能夠真正改善研究工作這一點上,學者們的態度其實相當謹慎。在多數受訪者看來,AI 并不會讓原本不可能完成的研究突然變得可能。并且,對于 AI 是否能讓研究者把精力更多地放在更有意義的研究問題上,或者是否能夠顯著降低科研成本,很多人并沒有明確答案。
與這些潛在收益相比,學者們更擔心的其實是一些更現實的問題,例如:信息質量、數據隱私,以及大型科技公司對生成式 AI 工具的控制權。許多學者還擔心過度依賴 AI 可能會削弱研究者自身的批判性思維能力。正如一位受訪者所說:“理想情況下,生成式人工智能應該幫助減輕‘publish or perish’(不發表就淘汰)的學術壓力。但如果它帶來的只是更快的產出速度,從而讓學界對產出的要求進一步提高,那么它可能只會增加論文數量,卻未必能真正改善那些已經壓力巨大、過度工作的研究者和學生的處境。”
![]()
整體來看,對于AI在學術領域的發展前景,學者們對于 GenAI 在未來兩到三年內持續改進持樂觀態度。然而,或者 GenAI 目前的優勢是否超過其對該領域的負面影響,學者們仍持矛盾態度。換言之,學者們相信技術會進步,但仍然做不到完全相信它的結果。此外,研究發現男性學者通常比其他群體對 AI 持有更樂觀、更信任的態度。這也與針對美國成年人口的調查結果一致,女性、非二元性別和跨性別群體對人工智能持有更負面的態度。
3. 社會科學應該塑造什么樣的 AI ?
社會科學研究的核心對象始終是人。而生成式 AI 的特別之處在于,它在某些情境中能夠“像人一樣”說話、回應、互動、分類,甚至模擬行為。這一點恰好和社會科學研究的對象高度相關。
從研究的角度,AI 現在或者未來確實可以幫助社會科學研究做不少事。首先,它可以幫助研究者設計調查和實驗材料。在很多社會科學實驗中,研究者需要準備各種材料,例如一段新聞報道、一條招聘廣告,或者一張帶有性別和種族線索的圖片。過去這些材料往往需要研究者反復修改、人工撰寫,很難保證不同實驗條件之間完全可比。而生成式 AI 可以幫助研究者更快地產生這些材料,并通過多次調整,讓不同版本之間更加一致,也更接近真實世界的表達方式。某些情況下,它甚至還能幫助保護隱私。
![]()
AI 還可以在一定程度上模擬調查受訪者。如果給模型設定一些人口屬性,例如年齡、教育水平或政治立場,它有時能夠生成與現實群體相似的回答。在一些場景中,它可以作為調查研究的輔助工具。
除此之外,AI 在某些情況下可以復制經典的社會科學實驗結果。在文本分析方面,AI 也能幫助研究者更快地處理大規模文本資料,例如新聞、社交媒體內容或訪談記錄,并完成初步的編碼和分類。更進一步,如果把 AI 引入實驗環境,研究者甚至可以設計人機互動實驗:讓部分參與者與 AI 互動,從而觀察群體行為和社會互動過程。這些方法都為社會科學研究提供了新的可能性。
![]()
AI 的應用帶來的倫理問題從來是爭論的焦點。例如,一項來自蘇黎世大學的研究,試圖在一個在線討論社區中測試 AI 是否比真人更擅長說服別人。他們創建了多個賬號,讓 AI 冒充不同身份參與討論,并根據用戶過往發言推測其性別、族裔和政治立場,從而進行定制化的說服。問題在于,這種研究實際上試圖改變參與者的行為并觀察其影響,但參與者并不知道自己正在參與實驗。這類干預性研究通常需要獲得知情同意,而這項研究并沒有做到,因此被認為越過了研究倫理的紅線。
![]()
(本文不是用AI寫的,嚴八永遠堅持手搓)
那么如果未來的大趨勢無法阻擋,社會科學家應該參與塑造什么樣的 AI,才更好更適合用來研究社會?
一些學者認為,未來的發展方向應該是發展更加透明、可檢查、可復制的模型體系,而非完全依賴由科技公司控制的封閉模型。其原因很簡單。商業模型會不斷更新,今天使用的模型在幾個月之后可能已經發生變化,研究結果也很難再被復制。同時,生成式 AI 的輸出對提示語非常敏感,稍微改變一句話的表達方式,結果就可能完全不同。相比之下,開源模型能夠讓研究者更清楚地了解研究過程,同時也有助于保護隱私、提高研究透明度。更重要的是,開源模型能夠形成一個共同的研究社區,在這個社區中,研究者可以共同討論規范和共享工具,更好的推進學術平等。如果未來只有少數資金充足的大學和研究機構能夠承擔商業模型和算力成本,那么生成式 AI 反而可能進一步擴大學術資源的不平等。
科學研究的根本始終是求真與務實。一些本應強調創作與表達的領域,不應完全交給人工智能。AI 的邊界,仍然需要繼續討論與反思——即便有時候,我們已經對充斥在日常生活中的人工智能感到審美疲勞,甚至有些厭煩。
至于未來人工智能會走向何處,我們也不必對一個工具過度焦慮,沒來得及學和用最新的技術也并不會使你慢人一步。至少在社會科學領域,現在看來最重要的仍然是人。
技術可以改變工具,但不能取代人的判斷。真正能夠引起共鳴與認可的,往往仍然是那些從人出發、帶著溫度與思考的光點。
Sources:
Alvero, A. J., Stoltz, D. S., Stuhler, O., & Taylor, M. A. (2026). Generative AI in Sociological Research: State of the Discipline.
Sociological Science, 13, 45-62.
Bail, C. A. (2024). Can generative AI improve social science?.
Proceedings of the National Academy of Sciences, 121(21), e2314021121.
O'Grady, C. (2025). 'Unethical'AI research on Reddit under fire.
Science, 388(6747).
Spirling, A. (2023). Why open-source generative AI models are an ethical way forward for science.
Nature, 616(7957), 413-413.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.