InsightFab
知識庫/軟體量測系統的 MSA:資料分析工具的準確性
MSA6 分鐘閱讀

軟體量測系統的 MSA:資料分析工具的準確性

喂!這篇文章超實用,尤其如果你是每天跟數據打交道的工程師或品管人員,一定要看!作者用一個老闆臉垮掉的真實案例開場,點出一個很重要的問題:Cpk 報告出來,數據漂亮就代表沒問題嗎? 讀完你會知道,原來我們平常做 MSA 不只針對實體機台,連跑數據的分析軟體也可能會有「偏見」!這就跟你想的很不一樣了吧?文章會深入淺出地解釋,怎麼判斷你的分析工具是不是真的準確,以及它會不會自己帶有誤差。快點進去看看,

那天 Cpk 報告出來,全場沉默了三秒,然後老闆叫我重跑

那天是禮拜一,一大早,我進會議室準備報一個新產品的 Cpk。你知道的,新產品上線前,所有數據都要漂漂亮亮。結果我一開投影片,Cpk 1.08。全場安靜三秒,老闆的臉直接垮下來。隔壁組的菜鳥還問:「哥,這樣不是過嗎?」老闆涼涼地說:「你覺得 1.08 跟 1.33 的產品,哪個會讓客戶更滿意?」我心裡 OS:老闆你不是不知道,這數據是軟體跑出來的,又不是我手刻的。但他下一句就點到重點了:「數據會說話,但你確定數據說的是真話嗎?」這就是今天我想跟你聊的,關於軟體量測系統的 MSA。

問題出在哪?你的分析工具準不準

說穿了,你的分析工具,不管是 Excel、JMP 還是 Minitab,它自己有沒有「偏見」?這聽起來很玄,但其實很簡單。你想想看,我們平常做 MSA,都是針對實體機台。量測儀器有沒有穩定?誤差會不會太大?但當你的數據來源是軟體模擬、資料庫撈取,甚至是機器學習模型算出來的,這些「軟體」本身就是一個量測系統。你用 Excel 公式算出來的標準差,跟用 Minitab 跑出來的,會不會有差異?如果你的數據源頭就歪了,你後面再怎麼優化流程、再怎麼訓練機台,都只是在錯誤的基礎上疊磚頭。所以重點是,你的「資料分析工具」這個量測系統,到底準不準?

實際上怎麼做?用假資料跑一遍就知道了

要怎麼確認你的分析工具準不準?最簡單的方法就是「跑假資料」。你可以自己生成一組已知特性(例如平均值、標準差、分佈類型)的數據,然後用你的分析工具跑一次。

  1. 生成標準數據: 假設你預期你的數據應該是常態分佈,平均值 100,標準差 5。你可以用程式碼或 Minitab 裡的 Data Simulation 功能生成 1000 筆這樣的數據。
  2. 輸入你的分析工具: 把這 1000 筆數據丟進你的 Excel 報表、JMP 流程,或是你公司內部的自動分析系統。
  3. 比對結果: 看看你的工具跑出來的平均值是不是在 100 附近?標準差是不是在 5 附近?Cpk 如果理論上是 1.33,你跑出來是多少?如果結果差太多,例如你預期平均值是 100,它卻算成 98.5,那你的工具就有偏誤了。

我之前就遇過,用公司內部系統跑出來的 DPMO 是 6210,但理論上應該是 6680。這差了快 500 啊!這時候你就要回去檢查你的公式、你的計算邏輯,甚至是你資料庫的取樣方式。

最常見的坑:公式複製貼上沒檢查

我踩過最大的坑,就是「公式複製貼上沒檢查」。你懂的,工程師嘛,寫一個 Excel 模板,然後大家就開始複製貼上。有一次,我發現組裡報的 Cpk 數據,跟我的怎麼都對不起來。後來才發現,一個同事的 Cpk 計算公式,竟然複製到一半沒改儲存格範圍!他算 Cpk 只算到一半的數據!導致他報出來的 Cpk 都是假的。還有另一次,是某個參數,資料庫裡存的是整數,但跑 Cpk 時應該要用浮點數算。結果預設的取樣邏輯直接把小數點捨去了,導致標準差嚴重低估,Cpk 當然就高得嚇人。所以坦白講,很多時候問題不是工具本身爛,而是使用者設定錯了。

今天能做的一件事

挑一個你最常用的分析報表,用假資料跑一遍,看看結果是不是你預期的。

想試試看?

文章裡提到的分析工具在 InsightFab 都可以直接用,上傳 CSV 即可分析。

前往工具頁面