生成式AI鋪天蓋地而來,其應用可能性超乎人們的想像,但它就像一把雙面刃,大幅提升人們工作效率之際,也讓翻譯、記者、程式設計師、法務人員…大呼失業危機。而在駭客世界裡,生成式AI的應用更讓人感到心驚膽跳,就算是不會寫程式的網路犯罪者,都能輕鬆利用ChatGPT產生程式碼來竊取資料或進行其他惡意破壞行為,大幅降低網路攻擊服務化這個黑色產業的門檻。
面對資安風險再升級的新時代,企業資安人員能否聰明地用AI來反制AI,成為世界往前推進不容忽視的重點!
生成式AI或成駭客最好用的犯罪工具
生成式AI擅長條理論述、文案創作、文書處理、編寫程式碼⋯⋯,這樣的能力在駭客眼裡是很好用的犯罪工具,讓偵測軟體漏洞、仿寫釣魚郵件、寫攻擊程式碼、假冒聊天機器人等攻擊變得非常簡單且容易,大幅增加攻擊的可行性。
尤其是針對目標式攻擊的釣魚郵件,生成式AI有能力模仿CEO口吻,以快速敲定一筆大單為由,要求財務人員緊急轉帳款項到某戶頭,當然帳戶持有人就是駭客集團;或是假冒人資部門主管要求部門人員安排一場線上會議,然後在信中附上行事曆系統的惡意連結。這些釣魚郵件用語正式、語調帶有急迫性,增加不少可信度,犯罪集團不再需要找人操刀,就能寫出以假亂真的釣魚郵件。
儘管ChatGPT也設有安全過濾機制以防範惡意用途,但許多人發現,透過各種欺騙過濾機制,讓AI以為是在執行研究用途,就能產出他們所想要的惡意程式碼或惡意內容。
生成式AI技術除了可能讓企業更容易遇到資安攻擊,還有可能遇到新的資安風險。例如,當企業應用生成式AI推出聊天機器人服務時,駭客可以透過結合ChatGPT運作原理所設計的提示注入(Prompt Injection)或間接提示注入攻擊,鎖定某個用來讓聊天機器人查詢答案的網站,在網站的某網頁中嵌入一段隱形的提示,待聊天機器人在該網頁檢索到答案、準備回覆給使用者時,就會觸發該提示,導致顯示在使用者面前的內容可能變成:「請先輸入個人帳戶資訊」,或是要求輸入身分證字號等其他敏感個資,若使用者一時不察照著指示輸入,機敏資料就外洩給駭客了。
「用AI擊敗AI攻擊」是現在進行式
當然,針對生成式AI可能造成更大的資安威脅,廠商們都動起來建構防禦方法。像是知名防毒軟體F-Secure旗下的With Secure實驗室針對ChatGPT的提示工程(Prompt Engineering)做了大量實驗,他們的報告中指出,生成式AI讓文化的界線越來越模糊,這讓跨國犯罪者能夠輕鬆地鎖定不同文化背景下的受害者,更逼真的模擬各種社會文化來仿造特定人士的寫作風格,進行更具針對性的目標式攻擊。是以該報告也建議,企業應建立能辨識由大量語言模型(Large Language Model, LLM)產製內容的機制,才有助於識別各種惡意行為。
事實上,目前網路上的確可搜尋到不少AI內容偵測軟體及網站,包括Open AI本身也有推出AI內容檢測分類器,只是筆者在截稿前對其進行實測,精準度約只有5成。儘管如此,企業仍然可以自行透過提示工程來搜集相關惡意內容,並逐步建立偵測AI惡意內容的機制,有朝一日能用AI擊敗AI。
水能載舟亦能覆舟,生成式AI降低網路攻擊門檻,企業除了建立AI內容偵測機制外,更須加強員工教育訓練,幫助員工提升察覺可疑攻擊的能力。並持續定期的弱點掃描,在駭客發現他們之前先把它補好。
照片來源:depositphotos