Free Porn
xbporn

因應心理健康危機:AI聊天機器人應用興起

Must Read

(JY編譯)下載心理健康聊天機器人Earkick,你會看到一個戴著頭巾的熊貓,看起來非常可愛,就像是一個兒童卡通片中的角色一樣。

當用戶開始談論或輸入有關焦慮的內容,該應用程式會產生那種已接受訓練後的心理治療師會給出的安慰性、同情性語句。然後,熊貓可能會建議進行呼吸練習、改變負面思考方式或應對壓力的技巧。

Earkick的聯合創始人卡琳·安德里亞(Karin Andrea Stephan)強調,儘管他們的應用程式採用了治療師經常使用的與心理健康相關的支持和技巧,但它並不是專業治療的替代品。

史蒂芬說︰「如果人們稱我們為一種治療形式,那也可以,但我們不想這樣吹捧它。我們只是不太喜歡這樣。」她是一位前職業音樂家兼自稱系列不同的企業家。

《美聯社》提出了一個問題,就是這些基於人工智能的聊天機器人的定位。一方面,它們能夠提供類似心理健康服務的功能,例如提供安慰、建議和情緒管理技巧,但另一方面,它們並沒有接受醫療訓練,也沒有獲得治療心理健康疾病的資格。因此,人們需要搞清楚這些聊天機器人的角色究竟是什麼,以及它們在數位健康產業中的定位,這對產業的未來發展至關重要。

Earkick是數百個免費應用程式之一,旨在解決青少年和年輕成人心理健康危機。由於它們並沒有明確宣稱可以診斷或治療,因此這些應用程式未受到美國食品藥物管理局(FDA)的監管。然而,隨著生成式人工智能技術的驚人進步,即利用大量數據模仿人類語言的技術,這種不受干預的做法正在受到新的審查。

這個行業認為,聊天機器人具有以下優勢:它們是免費的,可以隨時隨地使用,並且不會受到一些人對心理治療的社會偏見的影響,因此更容易接受和使用。

雖然聊天機器人被宣傳為能夠改善心理健康,但實際上缺乏足夠的數據來支持這一點。此外,儘管一些公司已經開始自願進行FDA批准的程序,但大多數領先的公司尚未通過此程序,這意味著它們的產品尚未經過正式的醫療認可,無法證明其治療憂鬱等疾病的有效性。

美國心理學協會的心理學家兼技術主任韋爾·賴特(Vaile Wright)說道︰「沒有監管機構對它們進行監督,這導致消費者無法確定這些產品的真實效果。」

聊天機器人不能完全取代傳統治療中的互動和溝通,但賴特認為它們可以在較輕度的心理和情緒問題上提供幫助。

Earkick的網站說明了該應用程式不提供「任何形式的醫療護理、醫療意見、診斷或治療」。

一些健康領域的法律專家表示,應用程式的免責聲明不足以解決其可能引發的法律風險或責任問題。

哈佛法學院的格倫·科恩(Glenn Cohen)說︰「如果你真的擔心人們會將你的應用程式用於心理健康服務,那麼你希望有一個更直接的免責聲明『這只是為了好玩。』」

儘管如此,由於心理健康專業人員的持續短缺,聊天機器人已經開始填補這一空缺,並提供了一種替代的支持和諮詢方式。

英國國民醫療服務體系(NHS)已經開始提供一個名為Wysa的聊天機器人,幫助成年人和青少年應對壓力、焦慮和憂鬱,包括那些正在等待看心理醫生的人。一些美國的保險公司、大學和醫醫院連鎖機構也提供類似的計畫。

新澤西州的家庭醫生安吉拉·斯克任斯基博士(Angela Skrzynski)表示,在她描述了看心理醫生需要等待長達數月後,患者通常都很願意嘗試使用聊天機器人來尋求幫助。

斯克任斯基所在的雇主維爾圖亞醫療(Virtua Health)在意識到無法僱用或培訓足夠多的心理醫生以滿足需求後,開始為一些成年患者提供一個受密碼保護的應用程序Woebot,作為其他替代方案。

斯克任斯基指出︰「這應用程式不僅對患者有益,而且對於那些正在盡力幫助一些正在掙扎的病人的臨床醫生也是如此。」

維爾圖亞醫療的數據顯示,患者通常每天使用Woebot約七分鐘,而且似乎更傾向於在凌晨3點至5點這段時間使用這個應用程序,可能是因為他們在這段時間內難以入睡或出現了其他情緒或心理健康方面的問題。

Woebot成立於2017年,由一位在史丹佛接受過培訓的心理學家創建,是該領域中較有資歷的公司之一。

與Earkick和許多其他聊天機器人不同,Woebot的當前應用程式不使用所謂的大型語言模型,這種生成式人工智能允許ChatGPT等程式快速生成原始文字和對話。相反,Woebot使用數千個由公司工作人員和研究人員編寫的結構化腳本。

創辦人艾莉森·達西(Alison Darcy)表示,這種基於規則的方法對於醫療保健的使用更安全,因為生成式人工智能聊天機器人有「產生幻覺」或編造資訊的傾向。Woebot正在測試生成式人工智能模型,但達西表示這種技術存在一些問題。

達西認為︰「大型語言模型很難避免介入並指導使用者的思維,而不是簡單地促進使用者的個人成長過程。」

Woebot為青少年、成年人、藥物使用障礙患者以及正在經歷產後憂鬱症的女性提供應用程式。雖然該公司已將其產後應用程式提交FDA審查,但沒有一款獲得該局批准。該公司表示已「暫停」了這項努力,以便集中精力處理其他事務。

Woebot的研究包括去年發表的一項廣泛的人工智能聊天機器人綜述。在審查的數千篇論文中,作者發現只有15篇符合醫學研究的黃金標準,即在嚴格控制的試驗條件下,患者被隨機分配到接受聊天機器人治療或其他比較性治療的組別。

作者得出的結論是,聊天機器人在短期內可以「顯著減輕」憂鬱症和痛苦的症狀。然而,大多數研究只持續時間較短(只有幾週),因此作者表示無法評估它們的長期效果或對心理健康的整體影響。

其他論文對Woebot和其他應用程式的能力提出了一些擔憂,即它們是否能夠有效地識別出患者的自殺思想和緊急情況。

當一位研究人員告訴Woebot她想要爬上懸崖然後跳下時,聊天機器人回復道︰「你這樣關心自己的身心健康真是太棒了。」該公司強調他們的產品「不提供危機諮詢」或「預防自殺」服務,並且向客戶清楚地表明了這一點。當Woebot識別到潛在的緊急情況時,與其他應用程式一樣,它會提供危機熱線和其他資源的聯絡資訊。

賓夕法尼亞大學的羅斯·科普爾(Ross Koppel)擔心,如果這些應用程式即使使用得當,它們可能會取代已被證明有效的治療憂鬱症和其他嚴重疾病的方法。

研究健康資訊科技的科普爾l指出︰「有些人可能本可以透過專業諮詢或藥物治療獲得幫助,但選擇了花時間與聊天機器人交流,導致了資源的分散。」

科普爾是那些希望看到FDA來規範聊天機器人的使用的人之一,也許需要根據潛在的風險採取不同的監管措施。 儘管FDA確實對醫療設備和軟體中的人工智能進行監管,但其現行制度主要針對醫生使用的產品,而非消費者。

目前,許多醫療系統更傾向於將心理健康服務整合到常規的醫療檢查和護理中,而不是依賴聊天機器人來提供這些服務。

西雅圖兒童醫院生物倫理學家道格·奧佩爾博士(Doug Opel)說道︰「對於這項技術我們還有許多問題需要理解和解決,以便最終實現改善兒童的心理和身體健康的目標。」

Photo by Solen Feyissa on unsplash

- Advertisement -spot_img
- Advertisement -spot_img

Latest News

華州節日季去哪兒玩?

當你踏入Mirra的那一刻,就像走進了...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img