那天 CpK 報告出來,全場沉默了三秒,我才敢說:「這結果,有問題。」
還記得有一次,我們新導入了一套視覺檢測機台,號稱 AI 判斷、精度突破天際。結果,機台驗收的 CpK 報告出來,居然只有 1.08!整個會議室瞬間安靜,連空氣都凝結了。老闆的臉沉到不行,大家都面面相覷,沒人敢說話。我心裡想,這數值也太低了,照理說這種新機台,怎麼也該有 1.33 以上吧?這時我才大膽開口:「老闆,我覺得這 CpK 可能不是機台本身的問題,是我們的量測系統,可能就有問題。」
問題出在哪?你的「眼睛」準不準?
說穿了,很多時候我們量測到的 CpK 低,其實不是製程真的不穩,而是你拿來量測的「尺」本身就不準。在自動化視覺檢測裡面,這把「尺」就是你的 AOI 機台、你的演算法、你的光學系統。當你在判斷晶圓上的瑕疵、量測元件尺寸時,如果這套視覺系統自己就「看走眼」,那怎麼可能得到正確的製程能力數據?這就是 MSA (Measurement System Analysis) 要解決的核心問題。它不是在看你的產品好不好,而是看你「判斷產品好不好」的這個工具,它自己夠不夠好。
實際上怎麼做?讓機台跟人一起「考試」
要評估視覺檢測系統,最常見的就是做 Gage R&R (Repeatability & Reproducibility)。簡單來說,就是找幾片「標準樣品」(有瑕疵、沒瑕疵、尺寸偏大、偏小等),讓你的機台反覆量測很多次,然後再找幾個人工去量測。
- 重複性 (Repeatability): 同一片樣品,讓你的機台重複量測 20 次。如果它每次都判斷相同,例如都判斷是 NG,那就表示它的重複性很好。但如果同一片樣品,它一下判 NG、一下判 OK,那這台機台的「手抖」程度就很大了。
- 再現性 (Reproducibility): 幾個人工去量測同一片樣品,看他們的判斷是否一致。例如,三個人工都判斷這片是 OK,那再現性就高。如果一個人判 OK,另一個人判 NG,表示人為判斷差異大。在視覺自動化裡,這部分更像是在評估「不同機台」或「不同班別」對同一塊晶圓的判斷一致性。
最終你會得到一個 %GRR 的數值。如果 %GRR < 10%,恭喜你,量測系統很可靠。10% 到 30% 之間,勉強可用,但最好還是改善。如果超過 30%,那你的量測系統根本是亂七八糟,量出來的數據根本不能用。我遇過一個案例,某個新機台的 %GRR 竟然高達 45%!難怪 CpK 低到不行。那根本不是製程問題,是機台自己在「說謊」。
最常見的坑:把問題推給製程,卻忘了檢查「眼睛」
我剛入行的時候,也常常看到 CpK 報告不好,就直接衝去產線找製程工程師,問他們「到底哪邊又出問題了?」結果製程工程師被我問到臭頭,檢查半天也沒個所以然。後來才發現,原來是量測機台的光源出了問題,導致影像品質不穩定,AI 判斷才會飄忽不定。所以,每次看到異常數據,我的第一反應絕對不是先罵人,而是先從量測系統開始檢查。說實話,很多時候我們工程師太相信儀器數據,卻忘了儀器也是人設計、人操作的,它也會出錯。
今天能做的一件事
馬上去翻你們設備的 MSA 報告,看看 %GRR 是多少!