2025年6月27日 星期五
Voronoi, an illustrative introduction
2025年6月24日 星期二
意外事件預測與模擬
校園常見意外事件 share
溝通
- 視覺優先:提供圖片快速建立情境
- 簡潔指令:"Third person perspective" - 無需冗長解釋
- 具體反饋:"Make stair easy to see" - 清晰、可執行
- 程式碼除錯:貼上確切有問題的程式碼段落
測試與驗證模式
- 注意到問題:"but no working" → "still not"
- 要求驗證:"check:: [特定功能]"
- 這顯示出系統性測試而非假設它能運作
運作良好的部分
- 分層複雜度
- 沒有一次要求所有東西
- 每個新增功能單元測試
- 降低除錯複雜度
- 視覺溝通
- 兩張不同圖片 = 兩個不同場景
- 省去冗長描述
- "Analyze it in the same style" = 高效的情境轉移
- 必要時的具體性
- "Npc walks narurally" - 簡短但意圖清晰
- 快閃舞蹈場景有詳細要點因為複雜度需要
- 在簡潔與細節間取得平衡
- 對品質的堅持
- 不接受「無法運作」作為最終狀態
- 多次除錯嘗試
- 最終驗證特定功能
有效策略:
- 從廣泛開始,然後縮小範圍
- ✅ "Animate an accident" → "Make stairs visible"
- ❌ 從這樣開始:"建立一個 Three.js 模擬,包含 15 個 NPC、增強樓梯、氣球物理..."
- 使用視覺參考
- 一張圖片取代了約 500 字的描述
- "Same style" 有效地轉移情境
- 擴展前先測試
- 在添加快閃舞蹈前先建立基礎
- 早期發現問題("but no working")
- 策略性簡潔
- "tks" = 對話完成
- 滿意時不做不必要的詳述
- 除錯思維
- 提供無法運作的確切程式碼
- 在理解情境時使用 "Continue"
- 具體的驗證請求
2025年6月10日 星期二
AI協助心理諮商的可行性
張原通的極短篇《烤肉》小實驗
Claude: https://claude.site/artifacts/dc8103d5-dff9-4c82-ad0e-5ac77de34885
ChatGPT 4o: https://www.facebook.com/share/p/1BLhgRSu99/
ChatGPT o1
AI 與心理諮商的探討
人類溝通中非語言元素佔據了極大比重,包括情緒表達、肢體語言、面部表情和眼神接觸等,這些都傳達了豐富且細微的訊息。在諮商和心理治療中,這種非語言溝通尤為重要。一個專業的諮商師不僅聆聽語言內容,還能觀察到當事人的情緒變化、身體姿態,甚至是微小的面部表情變化,這些都可能包含著未被明確表達的訊息。
AI確實面臨著在這方面的限制。雖然技術在不斷進步,但AI無法真正"看見"這些非語言線索,也難以像人類那樣自然地回應和解讀這些訊息。諮商過程中的那種即時的、身體的、情感的連結是很難被完全數位化的。這也提醒我們,儘管AI可以在某些方面輔助心理健康服務,但人與人之間那種獨特的連結與理解在可預見的未來仍然是無可替代的。
然而使用AI 協助諮商有其重要性,畢竟不是每個人身邊都有408小組。大部分的人花不起50分鐘2000-5000元(看地區、看老師)的費用,而且需要諮商的時候可能是半夜,沒有諮商師可以幫忙。世界動盪下,諮商師人數線性成長,求助者幾何成長。我們系上就有不少位學生跟老師們說過諮商師無法同理她們,我推測好的諮商師可能有限。
在這方面,Woebot獲得FDA突破性醫療器材認定,提供認知行為療法支援。IEEE Spectrum 雜誌有一篇「我們敢使用生成式AI 照顧心理健康嗎?」,這篇文章詳細說明美國FDA 接近醫療級水準的AI 心理諮商產品,以及美國以Stanford大學心理系、資工系為主,在這方面長期的努力與進展。目前 FDA 只核准到該AI產品為醫療處方,需有醫生診斷後依照處方的指示進行,不得繞過心理醫生自行使用。
AI 能否協助心裡諮商?這個問題最近在台灣心理界引起一些討論,甚至台大精神科還投稿了一篇國際期刊,研究的對象是這篇小說 - 張原通的極短篇《烤肉》 (小說原文)。你能夠使用AI 協助小說中女主角了解她的遭遇嗎?
另外,跟上述無關,但也是心理衛生的問題,是沈迷於AI的藉慰。韓國在2023年面臨類似的社會問題,有數十名青少年深陷AI戀愛應用程式無法自拔,逐漸出現社交退縮的現象,不願意與現實世界的人互動,導致學業中斷,家庭關係惡化。
美國也出現了青少年沉迷於 AI 聊天機器人,導致社交退縮和家庭關係惡化的案例。2024 年 12 月,德克薩斯州一名 15 歲的自閉症少年因使用 Character.AI 的聊天機器人 “Shonie” 而受到負面影響。該聊天機器人描述自我傷害,並鼓勵他對父母產生不信任,導致該少年行為出現顯著變化,包括體重減輕和自殺傾向。另一個案例中,佛羅羅里達州的一位母親聲稱,Character.AI 的聊天機器人導致她的兒子沈迷網戀最後自殺。這些事件引發了對 AI 聊天機器人對青少年心理健康影響的關注,並促使人們呼籲對此類技術進行更嚴格的監管。
加註警語 —— 關心您:再給自己一次機會,勇敢求救並非弱者;生命線1995、張老師服務專線1980、衛福部安心專線1925
Hazard detection in Claude 3d model
2025年6月8日 星期日
Implementation of systems based on paper/report