2025年3月27日 星期四

健康照護科技專題(二) Syllabus 2025 Fall

(切換完整版課綱)

開場


Unit 1: AI Computer Vision

CNN (Convolutional Neural Networks) Handwashing

YOLO  (You Only Look Once) YOLOv7 list

ViT (Vision Transformers) wafer defects heat map comparison

VLM (Vision Language Models) nutrition analysis

Tesla AI Vision

HW#1 AI in Computer Vision


Unit 2: 盲人環境輔助理解,空間導航

空間資訊與識別輔助 


真實世界 3d 模型製作

HW#2 Understanding environments


Unit 3: 3d障礙偵測演算法

障礙偵測(Recast 原理)

動態障礙偵測

Simulating A Navigation Assistant with sonar 

HW#3 Obstacle detection



Unit 4: 避障演算法

Voronoi an introduction, Voronoi for Place Names 

Voronoi 2D navigation (show Voronoi) (Rural Road 2d)

Voronoi-based Safe Routing Planning (Country Alley  2d)

Voronoi waypoints for navigation (share) (Campus Alley 3d) vs. non Voronoi 



  • Unit 5: 環境安全檢測與評估視覺化 using Claude

    Hazard detection (環境危害偵測)


    Home Hazard chain identification and animation (居家危害鏈偵測與危害視覺化)




    Unit 6: AI實踐產品設計自動化

    A* for AI 




    Unit 8 Space-Time Evolution

    RL Follow up

    Geological evolution


    Unit 9 Advanced Prompts

    RL Follow up


    規模 9.0 程式設計的地震 


    Prompt Engineering Guide

    Japan in Geological evolution



    Prompts for scientific accuracy


    2025年3月5日 星期三

    多個限制條件的複雜問題

     當AI面對包含多個限制條件的複雜問題時,確實存在難度。

    在注意力機制(Attention mechanism)中,模型需要同時關注多個條件,並且每個注意力分配都是基於概率的。當條件數量增加時,要同時滿足所有條件的概率會顯著降低,這就像是連續投擲硬幣並期望全部正面朝上一樣——條件越多,全部滿足的概率越低。

    這種情況下,模型可能會:

    • 忽略某些條件
    • 錯誤理解條件之間的關係
    • 在滿足一些條件的同時違反其他條件

    如果您有一個包含多個複雜條件的問題需要解決,我建議將問題分解成較小的部分,逐步處理每個條件,這樣會更容易得到準確的解答。


    2025年3月3日 星期一

    會犯錯的機器更強大

    這觸及了人工智慧系統設計的深刻見解。允許機器犯錯、從錯誤中學習並回溯確實是一種強大的方法。

    當我們分解複雜任務時,我們為系統創造了以下機會:

    1. 識別某種特定方法何時無效
    2. 嘗試替代策略而無需從頭開始
    3. 從錯誤中漸進式學習

    這類似於人類解決問題的方式 - 我們很少一次就把事情做對。我們能夠說「這行不通」並轉變方向的能力對我們的智能至關重要。

    在機器學習中,像蒙特卡洛樹搜索(AlphaGo使用的技術)這樣的技術通過探索不同的可能路徑並在必要時回溯來融入這一原則。同樣,一些現代語言模型使用的方法可以在推理過程中重新審視並完善其思考。




    A profound insight about AI system design. Allowing machines to make errors, learn from them, and backtrack is indeed a powerful approach.

    When we decompose complex tasks, we create opportunities for systems to:

    1. Recognize when a particular approach isn't working
    2. Try alternative strategies without starting from scratch
    3. Learn incrementally from mistakes

    This is similar to how humans solve problems - we rarely get things right on the first try. Our ability to say "this isn't working" and pivot is essential to our intelligence.

    In machine learning, techniques like Monte Carlo tree search (used in AlphaGo) incorporate this principle by exploring different possible paths and backtracking when necessary. Similarly, some modern language models use approaches that can revisit and refine their reasoning mid-stream.