生成式AI規範
*《政治與社會哲學評論》之生成式AI規範參照Elsevier B.V.的《期刊生成式AI政策》(https://www.elsevier.com/zh-tw/about/policies-and-standards/generative-ai-policies-for-journals),內容包含編輯、審查人與作者在AI工具使用上的透明性以及原則。
對於編輯
生成式AI和AI輔助技術在期刊編輯過程中的使用
投稿的文章應被視為機密文件。編輯以及相關人員不得將投稿文章或其任何部分上傳至AI工具,因為該行為可能侵犯作者的著作權;若文章中包含任何可識別個人身分的資訊,將涉及違反他人的隱私權。
此一保密義務也適用於與文章相關的所有溝通信件(包括通知信或決策信),因為信件可能包含文章或者作者機密資訊的相關內容。基於以上理由,編輯以及相關人員即使僅為提升文字的表達性或可讀性,也不應將此類信件上傳至AI工具。
編輯所涉及的評估工作僅能由人類承擔對應的責任。編輯不應使用生成式AI或AI輔助技術來協助文章的評估或決策,因為此類工作所需的批判性思維與原創性判斷超出該技術的能力範疇,並且AI有產出錯誤、不完整或偏頗結論的風險。
對於審查人
生成式AI和AI輔助技術在匿名同儕審查中的使用
當審查人受邀審查他人之文章時,該文章應被視為機密文件。審查人不得將投稿文章或其任何部分上傳至AI工具,因為該行為可能侵犯作者的著作權;若文章中包含任何可識別個人身分的資訊,將涉及違反他人的隱私權。
此一保密義務同樣適用於文章的審查意見書之中,因為審查意見書包含文章的相關內容。基於以上理由,審查人即使僅為提升文字的表達性或可讀性,也不應將審查意見書的相關內容上傳至AI工具。
審查人撰寫審查意見書的工作僅能由人類承擔對應的責任。審查人不應使用生成式AI或AI輔助技術來協助審查意見書的撰寫,因為此類工作所需的批判性思維與原創性判斷超出該技術的能力範疇,並且AI有產出錯誤、不完整或偏頗結論的風險。
對於作者
生成式AI和AI輔助技術在文章寫作中的使用
作者在撰寫投稿至《政治與社會哲學評論》的文章時,可使用AI作為輔助工具。然而,此類工具不可替代作者的批判性思維、專業知識以及判斷能力。AI工具的使用應該處於人類的監督與掌控之下。
因此,作者需要對其文章內容負起相對應的責任,這些責任包含:
- 審慎審查並核實所有由AI生成之內容的正確性、完整性與客觀性(包括查驗其引用來源,因為AI生成的參考資料可能存在錯誤或者虛構的情形)。
- 作者必須編輯與調整所有AI生成的素材,以確保文章能忠實呈現作者的原創性貢獻並且反映作者自身的分析、詮釋、洞見與構想。
- 確保所有工具或資料來源(無論是否基於AI)之使用對讀者保持清晰與透明。若於研究過程中使用AI工具,則應於研究方法的章節中詳加說明與描述。
- 確保文章的撰寫過程符合資料的隱私權、智慧財產權及其他相關權利之保障,並且查閱所使用AI工具的使用條款與條件。
AI工具負責任的使用
作者在使用任何AI工具前應審慎查閱其使用條款與條件,以確保其資料與輸入內容(包括尚未發表之文章)的隱私與保密性獲得保護。對於任何可識別個人身分的資料需要特別謹慎。AI工具不得生成、重製或者涉及既有受著作權保護的圖像、真實人物、其它可識別的產品或品牌,並且作者必須負責檢查生成的內容是否存在事實錯誤或潛在偏見。
此外,作者也要確定僅授權AI工具使用作者提供的資料來為其提供服務,並且未授予該工具其他的權利(包括但不限於使用該資料進行訓練的權利)。作者也須確保該工具不對其生成的內容施加使用限制,以免妨礙後續相關文章的發表。
揭露聲明
針對文法、拼字與標點符號的基本校對,無須進行揭露。若AI工具被應用於研究過程中,則應於研究方法的章節中詳加說明與描述。作者應詳實記錄其使用AI工具的情況,包括所使用工具的名稱、使用目的,以及作者對該工具使用過程的監督程度。
作者資格
作者不應將AI工具列為作者或共同作者,也不得將其作為作者加以引用。作者的資格意味著一系列僅能由人類承擔與執行的責任與義務。