摘 要:人工智能的迅猛發展帶來了一系列倫理問題,需要科技向善作為倫理原則對其進行約束和規范。科技向善作為規范人工智能發展的倫理維度,體現了技術發展與人類價值的深層統一。這一理念強調人工智能的發展必須以促進人類福祉為根本目標,在追求技術進步的同時不忽視倫理觀念的引導作用。科技向善也是一種實踐準則,它要求在推動人工智能發展的過程中,始終堅持以人為本,實現技術進步與人類福祉的有機統一。這種倫理導向對于確保人工智能的健康發展、促進人類社會的可持續進步具有重要意義。
關鍵詞:科技向善 人工智能 倫理規范
【中圖分類號】B82 【文獻標識碼】A
人工智能技術的飛速發展深刻影響著人類生產生活方式,同時也帶來了許多問題,例如算法偏見、隱私泄露、虛假信息、深度偽造、信息繭房等。如何確保人工智能朝著有益于人類社會的方向發展,已經成為一個亟待處理好的關鍵問題。這一問題不僅涉及技術和法律層面,更涉及科技倫理和社會道德層面,特別需要從倫理角度,以科技向善為原則進行規范和引導。
科技向善:概念、內涵及原則
“善”不僅是一種道德判斷,而且涉及到對人性、社會和生命價值的深層理解。科技向善作為人工智能倫理規范的原則,體現在對人工智能發展的全方位價值引導上,其強調技術發展必須以增進人類福祉為根本目標,將人的發展需求置于核心地位。這一原則不僅對人工智能的發展方向提出了規范性要求,更為解決科技發展中的倫理困境提供了實踐指南。
倫理學中“善”的含義
從倫理學角度來看,“善”是一個基礎的道德價值概念,它意味著人類行為及選擇在道德上的積極意義和正面價值,體現為促進人類福祉、維護人的尊嚴、實現公平正義等具體的價值追求。“善”要求我們在行動時不僅考慮個人利益,更要關注行為對他人和整個社會的影響。它強調在追求目標的過程中要尊重每個人的權利和需求,平衡各方利益,并致力于創造更美好的社會環境。
對于“善”的認識,自古以來就是哲學家討論的重要問題。古希臘哲學家柏拉圖認為,善是有益于人的生活的準則。在亞里士多德的倫理學中,存在著一種“終極善”的概念,即:善是人生的最高目標或最終目的,如幸福或自我實現。中國傳統儒家思想強調人性中的善良仁德。孔子認為應通過學習和修養來實現仁德,而孟子則從人性角度出發,認為善是人的內在本質。在應用倫理學中,如生物倫理學、環境倫理學或商業倫理學等領域,如何定義和追求“善”同樣是核心議題。
在科技倫理學中,“善”是指科技發展及其應用應符合社會價值觀和道德規范,以人類福祉和社會利益為導向的原則。“善”作為科技倫理的原則,旨在引導科技發展及其應用要符合道德和社會的期望,最大限度地促進人類和社會的福祉。科技倫理學關注的是如何以道德和負責任的方式使用科技,以確保科技進步不會對人類和環境造成負面影響。2022年3月,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》,提出“科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障”,并明確了五個科技倫理原則:增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險和保持公開透明。這里的科技倫理原則都體現出了“善”的含義。
綜合起來看,在科技倫理學中,“善”的含義主要包括以下幾點:人類福祉,科技的發展應該旨在改善人類的生活質量,包括健康、教育、安全和個人權利的增強。社會正義,科技應該促進公平和平等,防止歧視和偏見,確保資源和機會的公平分配。環境可持續性,在開發和應用新技術時,應考慮其對環境的影響,努力減少污染和資源消耗,保護生態平衡。倫理責任,科技發展應伴隨著對潛在風險的評估和管理,確保科技成果不會被濫用,同時保護個人隱私和數據安全。透明度和問責制,科技決策應該是透明的,允許公眾參與和監督,確保決策者對其決策的社會和環境影響負責。
科技向善的定義和原則
現代科技的迅猛發展,特別是一些先進技術的過度使用,正給人類社會帶來前所未有的挑戰。科學技術在本質上是“由人創造”且 “為人服務”的,因此它必然“指向人類自身”。科技的這種價值導向決定了它對人類文明發展的工具性價值。科技向善是科技對價值的追問和追求,它要求以價值理性來主導科技發展,并且,以人文關懷來引導科技發展。[1]從根本上說,科技與政治、法律、道德等文明成果一樣,都是人類為促進自身發展而創造出來的。科技并不存在脫離人類需求的獨立目的,即使是最純粹的科學研究(如純數學或某些天文學研究),也源于人類追求知識和智慧的內在需求。 [2]
科技向善就是把以人為本作為技術的尺度,把技術規則體系納入由法律、倫理所構建的社會規則體系中,以造福人類為準則。從倫理學角度而言,科技向善可以定義為一種以人類福祉為核心、以道德價值為導向的科技發展倫理范式,它強調科技創新必須在遵循倫理規范的前提下,通過技術與道德的辯證統一,實現對人類共同價值的維護和促進。這一定義超越了傳統的技術中立論,將倫理價值內化為科技發展的要求,為科技創新提供了明確的價值導向和倫理指引。
科技向善被視為一種崇高的價值追求與實踐理念,旨在引導科技研發與應用發揮積極正面的社會效益,避免對個人、社會與環境造成不必要的傷害。這一原則強調科技不僅要追求技術創新和經濟效益,還要重視其對人類社會、自然環境和未來發展的全面和長遠影響。科技向善的定義可以從以下幾個維度來理解:價值導向維度,科技向善強調科技發展必須以增進人類福祉為根本目標,將人的全面發展作為科技創新的出發點和落腳點。倫理規范維度,科技發展應當遵循倫理道德準則,在追求技術進步的同時,始終堅持正確的價值取向和道德底線。社會責任維度,科技創新要承擔起對人類社會發展的責任,不僅要關注技術效率,更要考慮其對社會、環境和人類長遠發展的影響。
科技向善是一種將技術發展與人文關懷相結合的發展理念,它要求在推動科技創新的過程中,遵循以下原則:一是始終以人為本,關注人的需求和發展。科技應服務于人類的整體福祉,改善人類生活質量,促進人類健康和幸福。二是平衡效率與公平,促進社會公平正義。科技應助力縮小社會不平等,提供平等的機會和資源,尊重和保護文化多樣性。三是重視可持續發展,保護生態環境。科技應為社會和環境的可持續發展做出貢獻,避免對環境造成不可逆轉的破壞,并且考慮未來世代的需求和利益。四是強調包容性發展,讓科技發展成果惠及所有人。科技應考慮到不同群體的需求,不因性別、種族、文化和經濟背景的不同而歧視任何人。五是重視透明度和負責任原則。科技應公開透明地展示其原理、算法和數據來源,并且承擔起應對可能的風險和不良后果的責任。
總之,科技向善原則要求我們在追求技術創新和經濟效益的同時,也必須關注科技發展對社會、文化、倫理和環境的影響,力求在科技進步與社會道德之間找到平衡點。這要求科技創新在道德和社會責任框架內進行,確保科技進步能夠促進更加公正、包容和可持續的發展。
作為人工智能倫理規范的科技向善
人工智能具有“雙刃劍”效應:一方面,人工智能技術具有強大的潛力,能夠在醫療、交通、金融等社會生活的方方面面帶來革命性的變革;另一方面,人工智能也可能帶來隱私泄露、算法歧視、自主武器等倫理問題。通過科技向善原則,可以有效規避人工智能帶來的風險,確保其安全可控,從而使其更好地服務于人類社會,并可提升公眾對人工智能的信任,促進人工智能技術的普及應用。科技向善作為人工智能倫理規范的基本原則包括以下幾個方面:
第一,保護人權與尊重個人隱私。這是人工智能倫理的核心原則。人工智能技術的應用不能以侵犯人權為代價,人工智能的發展和應用應當尊重和保障基本人權,包括隱私權、知情權等。要確保人工智能技術發展和應用過程中建立嚴格的數據收集、使用和保護機制,維護個人信息安全,尊重和保障每個人的基本權利和自由。例如,在醫療領域,人工智能系統在處理患者數據時,必須嚴格遵守隱私保護政策,確保患者的隱私不被侵犯。應當明確,任何人工智能系統在收集和使用個人數據時,必須獲得用戶的明確同意,并確保數據的安全和保密。
第二,堅守透明性與可解釋性。這是確保人工智能系統公正性和可信度的重要保障。人工智能系統應當具有透明性與可解釋性,使用戶和監管機構能夠理解其決策過程和結果。開發者和使用者有責任向用戶解釋系統的決策過程和依據,要求提高算法決策的可解釋性,以便用戶理解和監督人工智能的行為。只有在透明和可解釋的前提下,才能確保人工智能系統的公正性和可信度。例如,在金融領域,投資者應當有權了解人工智能系統在投資決策過程中使用的數據和算法,以便做出明智的投資決策。科技向善要求認真審視人工智能系統的算法決策機制,在追求計算效率和準確性的同時,必須考慮決策過程的透明度與可解釋性,在設計人工智能系統時必須融入人類的價值判斷和倫理考量,確保科技創新始終服務于人類的整體利益。
第三,重視責任與問責。科技向善要求開發者和使用者承擔相應的社會責任,確保技術應用的安全性和可控性。這要求我們在推進技術創新的同時,注重培養開發者和使用者的責任意識,始終把握技術發展的正確方向,理性使用人工智能技術,確保技術創新真正服務于人類的可持續發展。在安全性方面,人工智能的開發者和使用者應當建立完善的風險評估機制,確保人工智能系統的可控性和穩定性,防范可能的安全隱患。建立相應的倫理審查制度,確保人工智能的發展始終在倫理框架內進行。在治理機制方面,要建立起多方參與的治理機制,確保技術發展過程中各利益相關方的訴求得到充分考慮。在人工智能系統出現錯誤或造成損害時,應當有明確的責任追究機制,從而保障受害者的權益。例如,在自動駕駛領域,如果因為人工智能系統的故障導致交通事故,開發者、運營者和使用者應當承擔相應的法律責任,確保受害者得到應有的賠償。
第四,確保安全可控。人工智能系統應當具有安全機制,防止出現意外行為或被惡意利用。同時,人工智能系統應當始終處于人類的控制之下,確保人類對其行為和決策具有最終的控制權。例如,在軍事領域,人工智能系統應當設計嚴格的安全機制,確保其不被敵對勢力利用,并始終處于人類的控制之下。具體而言,它要求我們在人工智能技術創新過程中,始終關注人的尊嚴、權利和發展需求,確保技術創新能夠真正服務于人。同時,還需要特別關注技術應用對人類心理、行為方式以及社會關系的影響,防止技術異化和價值失范。
第五,注重公共利益。科技向善強調人工智能發展應當服務于人類共同利益,促進社會公平正義。人工智能的發展不能僅僅追求技術突破和效率提升,而是要深入考慮技術對人類社會的影響。人工智能系統在開發和使用過程中應進行公平性測試和評估,確保不會對特定群體造成不公正的待遇。科技向善強調要尊重文化多樣性,人工智能的發展不能采用單一的價值標準,而是要充分考慮不同文化背景下的倫理觀念和價值取向。在技術開發和應用過程中,注重跨文化的理解和包容,使人工智能能夠更好地服務于不同文化背景的用戶,并積極采取措施消除數字鴻溝,確保技術發展的包容性和普惠性。
總之,科技向善作為人工智能倫理的基本原則,既是對科技發展的價值引導,也是對人類文明永續發展的深刻思考。在推動科技創新的過程中,始終要堅持以人為本、公平正義、責任擔當的價值理念,努力實現科技進步與人類福祉的統一。
人工智能的迅猛發展迫切需要倫理原則的規范與約束
人工智能的迅猛發展帶來了一系列倫理問題,這就需要科技向善作為倫理原則對其進行約束和規范。科技向善作為規范人工智能發展的倫理取向,包含了對人類尊嚴與社會福祉的堅持,對技術責任與公開透明的追求,以及對可持續發展與協同治理的關注。
人工智能技術的雙重效應使其發展必須要有倫理原則的規范與約束
人工智能作為一種具有革命性的新興技術,在為人類社會帶來巨大便利和進步的同時,也蘊含著一系列風險和挑戰。從技術層面來看,人工智能系統的自主性、不確定性和深度學習能力,使其在運行過程中可能產生超出人類預期的結果。從應用層面來看,人工智能技術在醫療、金融、司法等領域的廣泛應用,直接關系到人類的生命安全、財產權益和社會公平。因此,需要對人工智能倫理風險的起因、影響、規則制定的方法以及效果評估等進行預備性前瞻思考,以利于人工智能倫理的相關標準建立和風險防范。[3] 科技向善原則通過強調以人為本、公平正義、責任擔當等價值理念,為人工智能的發展指明了正確方向。這種價值引導有助于避免技術發展的盲目性和片面性,確保人工智能始終服務于人類福祉的提升。
在科技迅速發展的情況下,如何確保人工智能的發展方向符合人類的根本利益,成為一個非常關鍵的問題。例如,人工智能算法的訓練依賴于大量數據,而這些數據可能存在偏見和歧視,導致算法輸出結果不公平。人工智能在處理數據時可能會繼承和放大現有的社會偏見,導致算法歧視問題。歧視與偏見風險的主要特征是人工智能大模型對特定群體的特征,如種族、性別、年齡、宗教、膚色等,生成歧視性或偏見的表達。[4]例如,在招聘領域,基于人工智能算法的招聘系統可能會對某些性別、種族或社會群體產生偏見,導致歧視現象發生。在金融領域,人工智能技術被廣泛應用于風險評估、投資決策和市場預測等方面,通過對大量金融數據的分析,人工智能系統可以識別出潛在的風險和機會,幫助金融機構做出更為準確的決策。但是,金融領域的算法偏見問題不可忽視。如果人工智能系統在訓練過程中使用的數據存在偏見,那么其輸出結果就可能存在偏見,進而導致不公正的決策。因此,我們需要從法律和倫理的角度,確保人工智能系統的公正性和透明性,避免算法偏見對金融市場的負面影響。
人工智能倫理困境凸顯了價值引導的重要性
在人工智能技術的研發和應用過程中,經常面臨各種復雜的倫理困境,例如隱私保護、責任歸屬和社會不公平現象等。這些困境的本質在于技術理性與價值理性之間存在巨大張力,純粹的技術理性追求效率和確定性,而忽視了人類社會的價值需求和倫理考量。科技向善作為一種價值導向的倫理原則,強調技術發展必須與人文關懷相結合,將倫理價值內化為技術創新的要求,為解決這些倫理困境提供指導。科技向善原則要求在評估人工智能技術時,不能僅僅關注其技術性能和經濟效益,還要充分考慮其社會影響和倫理后果。
人工智能的倫理風險管控需要系統性的規范框架。人工智能技術被應用于自動駕駛、無人武器等領域,如果缺乏安全保障,可能會造成嚴重的安全事故和倫理問題。例如,自動駕駛汽車如果失控,可能造成人員傷亡;無人武器如果被濫用,可能引發戰爭和殺戮。人工智能系統的決策過程通常具有高度復雜性和不透明性,這給責任追究帶來了困難。尤其是在自動駕駛、醫療診斷等關鍵領域,人工智能決策的透明度和可解釋性至關重要。遵循科技向善原則,就可以基于風險防控考慮,通過建立較為完善的倫理評估機制、責任追溯體系和監督管理制度,為人工智能提供系統性的規范框架。這種框架不僅包括技術層面的安全保障,還涵蓋社會層面的倫理約束,有助于實現人工智能健康有序發展。
人工智能對人類社會的深遠影響要求有長期性的倫理考量
人工智能技術正在深刻改變人類的生產方式、生活方式和思維方式。人工智能系統依賴大量的數據進行訓練,這些數據通常包含敏感的個人信息,如果被不當使用或泄露,將對個人隱私構成嚴重威脅。同時,人臉識別技術、語音識別技術等,都可能被用于非法收集和識別個人信息,侵犯公民隱私權。基于深度學習算法的醫療影像分析系統,可以快速而準確地識別出病變區域,幫助醫生進行早期診斷和治療,這不僅提高了診斷的準確性,還大大縮短了診斷時間,減輕了醫生的工作負擔。然而,患者的醫療數據具有高度的敏感性,如果泄露,就可能對患者的個人權益造成嚴重損害。如何在數據利用與隱私權保護之間取得平衡,是當前亟需解決的倫理難題。
發展人工智能必須考慮其對生態環境、社會結構和人類文明的影響。科技向善原則通過強調可持續發展和長期影響的評估,為人工智能的發展提供戰略性的倫理指導。這種長期性的倫理考量,有助于確保人工智能技術在追求創新的同時,不會損害人類社會的長遠利益。隨著智能機器人的普及,傳統制造業的就業崗位面臨著被替代的風險。如何在推動技術進步的同時,保障勞動者的就業權益,就成為要認真思考的問題。如果缺乏倫理原則的約束,人工智能的發展可能偏離人類福祉的軌道,甚至對人類社會的可持續發展造成威脅。
經濟全球化背景下人工智能的發展需要有普遍認可的倫理準則
在經濟全球化背景下,人工智能技術的發展已經超越了國家和地區的界限。不同文化背景和價值觀念的碰撞,使得建立具有全球共識的人工智能倫理原則變得十分重要。在此背景下,如何協調不同文化傳統下的倫理認知差異,建立共同的價值準則,成為亟待解決的關鍵問題。科技向善作為一種基于人類共同價值的倫理原則,強調包容性發展和普惠共享,為構建全球人工智能治理體系提供了重要的理念基礎。
建立國際認可的倫理準則,構筑全球性的人工智能治理體系,成為確保人工智能健康發展的必要條件。在追求技術進步的過程中,如何平衡發展效率與倫理責任,如何確保技術創新服務于人類福祉,都需要有共同的價值準則作為引導。科技向善原則作為一種普適性的價值原則,有助于防止科技創新競爭偏離人類福祉的軌道,為人工智能國際合作治理提供重要價值引導。科技向善原則的包容性特征,有助于實現全球范圍內人工智能發展的良性互動和共同進步。
綜上所述,人工智能的發展需要科技向善作為倫理原則進行約束和規范,這不僅是技術發展的內在要求,也是確保人類福祉的必然選擇。通過科技向善原則的指導,我們可以更好地處理技術發展中的各種倫理問題,推動人工智能技術與人類文明的和諧發展。
推動人工智能堅持科技向善的實踐路徑
科技向善既是一種價值理念,也是一套實踐方法。在科學研究、教育教學、產業發展和社會治理等領域運用或研發人工智能技術,都要積極踐行科技向善理念。只有這樣,人工智能才能在更長遠的維度促進人類福祉與社會進步。
以科技向善原則引導立法工作,將科技向善原則融入人工智能法律規范體系
法律是社會的底線倫理,對人類行為具有強制規范作用,而倫理是引導人們去做不止于守住底線的、對社會有益的事情,其對人類行為很多時候只是具有軟約束作用。倫理原則如果轉化為法律規范,就會具有強制性作用。為了確保人工智能朝著有益于人類福祉的方向發展,必須以科技向善原則為引導,建立健全相關法律法規體系,加強對人工智能發展的引導與規范。國際社會已經開始意識到規范人工智能發展的重要性,許多國家和地區秉持科技向善原則出臺了一系列相關法律和政策。例如,歐盟的《通用數據保護條例》(GDPR)對數據隱私保護就提出了嚴格要求。
當前,有必要加快制定有關人工智能的法律法規,明確人工智能發展的倫理底線和規范要求,為人工智能的健康發展提供制度保障。2023年3月,國家人工智能標準化總體組、全國信標委人工智能分委會發布《人工智能倫理治理標準化指南》,針對人工智能技術特性、當前主流國際觀點和我國技術發展現狀,基于標準化視角拆解、具象化各準則的要求,梳理細化出10項可實施性較強的人工智能倫理準則,為后續具體標準的制定提供了可操作性的方向。這些法律法規和政策性文件對人工智能的應用范圍、研發原則、監管機制等作出具體規定,明確了人工智能研發與應用相關各方的權利和義務。將來還可針對人工智能應用的具體領域,如自動駕駛、智能醫療等,制定專門的法律法規,體現科技向善理念,確保其安全性和合法性。
以科技向善原則為基礎建立倫理審查機制
在人工智能治理領域,需要建立專業化和制度化的倫理審查機制,包括技術開發前的倫理預評估、開發過程中的動態監督,以及應用階段的效果評估,確保人工智能技術的研發和應用符合倫理道德標準。這一機制應當由多領域專家組成審查委員會,從技術安全、社會影響、人權保障等多個維度進行綜合評估,確保人工智能的發展始終以促進人類福祉為根本目標。鑒于人工智能倫理的嵌入性、場景性以及程序性特征,在人工智能倫理審查的具體裁斷場景中,工程師與倫理專家、法學專家的有效溝通、達成共識并最終轉化為行為極其重要。[5]審查結果應當向社會公開,接受公眾監督,并建立起有效的反饋渠道,及時發現和解決實踐中出現的問題,不斷完善審查機制本身。
在倫理審查過程中,應重點關注人工智能系統的隱私保護、數據安全、算法公正、社會影響等問題,通過法律和倫理的有機結合,確保其符合科技向善的倫理要求。加強科技倫理治理、完善科研倫理規范,是把好科技向善“方向盤”的關鍵。2023年9月,我國科技部等印發《科技倫理審查辦法(試行)》,要求開展科技活動應堅持促進創新與防范風險相統一,客觀評估和審慎對待不確定性與技術應用風險。
提高公眾對科技向善原則的理解和認識
讓公眾了解人工智能的開發目的、潛在風險及應對措施,有助于提高公眾對科技發展的信任與支持。通過廣泛的社會參與、教育普及、政策引導和行業自律,可以讓公眾更好地理解和支持科技向善原則,確保人工智能能夠在倫理和道德框架下,服務于全人類的共同福祉。例如,通過媒體報道和案例分享,展示人工智能在促進社會福祉、改善生活質量、助力公共服務等方面的實際應用,可使公眾認識人工智能技術對社會的影響;通過社交媒體、社區活動等平臺,鼓勵公眾參與關于人工智能倫理、隱私保護和技術透明度的討論,增加公眾對科技向善的認同感和責任感。
提高公眾對科技向善原則在人工智能領域規范引導作用的理解和認識是一個復雜且關鍵的任務,涉及教育、信息傳播、公眾參與等多個方面。特別要認識到,推動人工智能遵循科技向善的倫理理念不僅需要政府部門的引導,還需要社會各界的廣泛參與,學術界、企業界、人工智能研發者和普通公民等多方利益相關者在相關政策制定過程中都應得到充分體現。要注重通過實踐示范和制度建設來深化公眾認識,積極樹立和宣傳科技向善的典型案例,展示人工智能促進社會發展的積極成果。這些措施有助于提升公眾對科技向善原則重要性的認識,推動人工智能在倫理規范指導下健康發展。
在國際合作中推動以科技向善作為規范人工智能發展的倫理準則
人工智能的發展是全球性的,需要國際社會的共同努力和合作。借鑒不同國家和地區的先進經驗,推動國際間的合作和共同標準的制定,有助于更好踐行科技向善的理念。各國應當加強在人工智能領域的法律交流與合作,共同制定和推廣國際規范。人工智能技術的最終目標應是促進人類福祉、提高社會整體的幸福感和生活質量。目前越來越多的國際組織、國家政府和行業協會出臺了人工智能倫理原則與治理標準。2021年11月24日,在聯合國教科文組織第41屆大會上,193個會員國一致通過了《人工智能倫理問題建議書》。該建議書提出,應提供新的機會,激勵合乎倫理的研究和創新,使人工智能技術立足于人權和基本自由、價值觀原則以及關于道義和倫理的思考。2024年8月1日,歐盟發布的《人工智能法案》生效,這是迄今為止全球發布的最為全面的針對人工智能監管的法案。該法案禁止某些違背歐盟價值觀、特別有害的人工智能做法。
科技向善需要超越地區和行業邊界,加強各國政府、國際組織、科研機構及產業界的協同合作,建立統一或兼容的倫理共識與標準。2023年10月18日,中央網信辦發布《全球人工智能治理倡議》,其中明確指出:“發展人工智能應堅持‘智能向善’的宗旨,遵守適用的國際法,符合和平、發展、公平、正義、民主、自由的全人類共同價值,共同防范和打擊恐怖主義、極端勢力和跨國有組織犯罪集團對人工智能技術的惡用濫用。”各國應在人工智能領域加強國際合作治理,秉持科技向善的理念,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。
【本文作者為對外經濟貿易大學法學院教授】
注釋略
責編:周素麗/美編:石 玉