This entry is also available in:

人工智慧是新技術正在獲得的一項功能,它允許設備或媒介(計算機、機器、行動裝置、汽車、應用程式、智慧揚聲器、網路等)與人建立流暢的通信。 到回答問題、進行對話或解決問題的地步,其理解水準相當於甚至高於人腦。
是否存在與使用人工智慧相關的網路攻擊?
不幸的是,是的。 例如,當今使用最廣泛的人工智慧技術是 ChatGPT,全球月活躍使用者為 1.805 億 (截至 2024 年 4 月)。 因此,對於網路犯罪分子來說,這是“一個充滿魚的新海”。 這是因為 n或者所有配備這些功能的程式和應用程式都同樣安全。 例如,已經在車載電腦助手、Alexa 型智慧音箱甚至 ChatGPT 本身或類似的搜尋引擎中檢測到漏洞。
我們應該採取哪些預防措施?
特別是如果我們不僅在個人層面上而且在專業層面上使用這些技術,我們必須考慮以下幾點:
- 黃金法則:不信任一切,請專家。 這意味著,在個人層面上,我們必須謹慎使用和下載內容,如有疑問,最好詢問具有技術資料的人,以便他們可以向我們提供建議。 但是 在專業層面上, 如果我們想在工作場所使用人工智慧技術,因為它可以幫助我們更有效率或提高工作品質,我們必須首先請求直接經理和IT部門的授權。 如果我們在沒有內部溝通的情況下使用它,在發生網路攻擊時,我們將對該事件和可能的信息洩露承擔直接責任。
- 這些技術會記錄和存儲您的對話記錄。 隱私政策或技術使用條件規定它可能會從我們的消息、文件和我們分享的任何評論中收集資訊是很常見的。 此外,AI 培訓師可以審查對話,以開發聊天並改進系統。 因此 我們輸入的個人或公司數據不僅會受到損害,而且會被用於其背後的公司的利益。 對介紹它們的使用者以及它們所屬的公司造成應受懲罰的網路安全和隱私風險。
- 虛假的 AI 網站和應用程式。 利用 ChatGPT 的受歡迎程度,已經創建了非官方頁面和應用程式來分發惡意軟體(惡意軟體)或根據收集到的信息進行網路攻擊。 去年已經檢測到 90 多個惡意應用程式,配備了虛假的 AI。 因此,人工智慧給我們的某些答案,無論它是否合法,都可能包含將我們重定向到這些虛假網站或應用程式的連結 (網路釣魚/域欺騙), 因為源 AI 不會檢查它們是否是,它只是在互聯網上找到它們並將它們轉發給我們以回應我們的請求。
- 始終要求消息來源以驗證資訊。 人工智慧提供的資訊並未指明其獲取資訊的來源,因此這些信息的真實性和準確性可能是虛假的或不完整的。 為了避免這種情況,我們可以提出需要來源的問題,或者以這樣一種方式來表述它們,即它們必須為我們提供更長的答案,這樣它們就會有更多的基本資訊,我們防止它們最終發明文本。
- 注意聊天機器人提供的資訊的版權。
人工智慧生成的回應不受版權法保護,因此無需徵 得許可 或獲得許可即可自由使用。 在這些情況下,重要的是要獲得以特定方式使用內容的許可或許可,以避免侵犯他人的智慧財產權。
重要提示:
如果您遵守了所有這些措施,但發現自己處於不符合內部策略要求或建立的安全級別的情況,請毫不猶豫地 將此傳達給您的直接經理、CISO 安全經理和 IT 部門, 以便他們為您提供適當的建議。 在個人層面上 ,他向員警當局報告了網路攻擊 。
