生成式人工智能工具,如 ChatGPT(一種人工智能驅(qū)動的語言工具)和 Midjourney(一種人工智能驅(qū)動的圖像生成器),可以為各種殘疾人士提供潛在幫助。這些工具可以總結(jié)內(nèi)容、撰寫消息或描述圖像。然而,這種潛力的程度是一個懸而未決的問題,因為除了經(jīng)常出現(xiàn)錯誤和基本推理失敗之外,這些工具還可能延續(xù)能力歧視偏見。
今年,華盛頓大學的七名研究人員利用他們自己作為殘疾人和非殘疾人的經(jīng)歷進行了為期三個月的自民族志研究,以測試人工智能工具的可訪問性實用性。盡管研究人員發(fā)現(xiàn)這些工具很有用,但他們也發(fā)現(xiàn)人工智能工具在大多數(shù)用例中都存在重大問題,無論是生成圖像、編寫 Slack 消息、總結(jié)寫作還是試圖提高文檔的可訪問性。
該團隊于 10 月 22 日在紐約舉行 的ASSETS 2023 會議上公布了其研究結(jié)果。
“當技術(shù)迅速變化時,殘疾人總是有被拋在后面的風險,”資深作者、華盛頓大學保羅·G·艾倫計算機科學與工程學院教授詹妮弗·曼考夫(Jennifer Mankoff)說。“我非常相信第一人稱賬戶能夠幫助我們理解事物。因為我們團隊中有很多人可以像殘疾人一樣體驗人工智能,并了解哪些有效,哪些無效,所以我們認為我們有一個獨特的機會來講述一個故事并了解這一點。”
該小組以七個小片段的形式展示了其研究成果,通常將經(jīng)驗合并到單個賬戶中以保持匿名。例如,在第一個帳戶中,患有間歇性腦霧的“Mia”部署了總結(jié) PDF 的 ChatPDF.com 來幫助工作。雖然該工具有時是準確的,但它經(jīng)常給出“完全錯誤的答案”。
在一個案例中,該工具既不準確,又存在體能歧視,將一篇論文的論點改變?yōu)槁犉饋硌芯咳藛T應(yīng)該與護理人員交談,而不是與慢性病患者交談。“米婭”能夠捕捉到這一點,因為研究人員非常了解這篇論文,但曼科夫表示,這種微妙的錯誤是使用人工智能的一些“最陰險”的問題,因為它們很容易被忽視。
標簽:
免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!