Wikipedia:電腦gen出嚟嘅內容
以下係一個草案,正喺度準備成為維基百科嘅policy嘅提案。 呢個提案唔可以當做係共識,因為佢仲喺開發階段同埋進行緊討論,仲未到收集共識去採納嘅程序。所以,任何引用或者連結呢一版嘅時候,唔應該將佢描述為政策、指引,甚至連提案都唔係。 |
一句講嗮:而今電腦演算法越嚟越識幫人類做嘢,而維基百科入面各位編輯要為呢啲佢哋gen出嚟嘅所有內容質素同埋任何相關聲明嘅真實性負責。 |
各種類型嘅電腦演算法、神經網絡、機器學習,仲有有時叫做人工智能嘅方法,而家都有得用嚟協助人類創作內容。
每個維基百科編輯都有責任確保佢哋提交嘅所有內容都符合維基百科嘅政策、指引、標準同最佳做法,仲要確保所有事實同聲明都係準確嘅。
內容問題
編輯任何用嚟生成內容嘅電腦工具都要小心使用,因為佢哋可能會產生有偏見、無法驗證、構成原創研究、侵犯版權或抄襲,或者唔符合其他政策或指引嘅內容。
行為問題
編輯如果持續引入違反維基百科政策同指引嘅電腦生成內容,將會被視為破壞性編輯,可能會導致被封禁,唔俾再編輯。
例子包括使用大型語言模型(LLM)或其他算法去創建表面上睇嚟唔錯,但實際上經過仔細檢查就會發現有問題嘅宣傳性或惡作劇草稿。
例子
編輯語言模型同算法
編輯Template:參見 處理同預測人類語言嘅電腦算法已經用咗好耐。最近,語言模型喺好多應用度都有用到,例如機器翻譯、自動更正、自動完成、增量搜尋、自然語言生成、詞性標註、語法分析、光學字元識別(OCR)、手寫識別、語法推導同資訊檢索。
就好似提交任何內容一樣,編輯者必須仔細檢查任何由電腦生成嘅內容部分,確保佢哋準確無誤。由於目前可用技術嘅輸出質量唔高,喺維基百科使用呢啲工具通常係唔受鼓勵嘅。使用大型語言模型(例如ChatGPT)去創建文章,如果唔係逐字仔細檢查,好可能會導致各種錯誤嘅內容被提交。機器翻譯都係一樣。因為呢啲類似嘅技術喺日常工具中無處不在,所以無可能完全禁止佢哋喺維基百科使用,但編輯者應該時刻留意任何唔係佢哋直接輸入嘅嘢,盡可能避免依賴電腦去代替自己嘅創造力同思考過程。
圖像處理同生成
編輯傳統上,圖像處理算法都係由人類設計嘅,但最近機器學習(通常叫做人工智能)變得越嚟越普遍,由智能手機相機到圖像編輯軟件都有用到。編輯者應該意識到,任何對圖像進行嘅處理都有可能扭曲所傳達嘅資訊。如果進行咗圖像修復,就應該喺圖像文件嘅描述同埋喺文章中使用嘅圖片說明中披露同描述。任何其他實質上影響圖像外觀嘅更改,一般都應該喺向讀者展示圖像嘅同時披露。
目前,使用深度學習模型(例如DALL-E)去生成整張圖像,或者填補大部分缺失嘅部分,或者由現有圖像推斷延伸,喺維基百科都唔係一種被接受嘅做法。