跳到主要內容
科技應用專題114 / >AI 假新聞&詐騙

如何避免被假新聞欺騙——用心理學看人性弱點

1. 假新聞如何影響人類判斷?

在資訊爆炸的時代,假新聞、謠言與錯誤資訊充斥社會,影響人們的判斷。陽明交通大學傳播與科技學系教授陶振超指出,影響人類判斷真假的 四大心理因素 分別是:

 真實偏誤:人類本能上傾向相信他人,看到或聽到的訊息通常會直覺認為是真實的。
 記憶與知識:人們根據過去經驗與現有知識來判斷資訊的真偽,容易受到錯誤記憶影響。
 情緒影響:假新聞通常使用更情緒化的語言,激發人們的恐懼與憤怒,使其更容易被傳播。
 既存立場:人們對符合自己政治立場的新聞較容易相信,即使內容是錯誤的。


2. 訊息中的「雜訊」如何影響判斷?

  • 訊息中的噪音與雜訊可能會干擾我們的判斷,使人誤解資訊內容。
  • 例如,在選舉報票現場的影片中,因為某些聲音位置較近,導致部分民眾誤以為「作票」,但完整影片顯示實際情況並非如此。
  • 這類錯誤判斷可透過「訊號偵測理論」解釋,即人類在接收資訊時,會受到干擾因素影響,導致判斷失準。

3. 真假訊息判斷的挑戰

1)真實偏誤:人類天生容易相信他人

  • 例子:柯文哲的錄音檔曾被深偽技術(deepfake)偽造,雖然後來經鑑定為偽造,但許多民眾在未查證前就已相信並傳播該訊息。
  • 原因:假新聞常冒用「官方文件」或「新聞樣式」,讓人直覺認為有公信力。

2)記憶與知識:資訊背景影響判斷

  • 例子 1:陽明交大教授黃紹華的言論被冒用,因為與其過往風格不符,熟識他的親友一眼就識破假訊息。
  • 例子 2:前立委蔡正元曾誤信一則美國記者的諷刺推文,將其當作「拜登毀滅台灣計畫」的真實證據,導致媒體爭相報導並引發騷動。

3)情緒影響:假新聞利用煽動性語言

  • 假新聞多使用 誇大、煽動 的標題,例如:「上海一天染疫 40 萬人」,這類標題容易引發恐慌,使訊息迅速傳播。
  • 研究發現
    • 假新聞的傳播速度是一般新聞的 3
    • 最熱門的假新聞可達 10 萬次分享,而即使是受歡迎的真新聞,最多僅約 1,000 次分享。

4)既存立場:人們更容易相信符合自身立場的新聞

  • 心理學研究顯示:當新聞內容符合個人政治立場時,人們更容易相信並記住它,即使該新聞是假的。
  • 例子:藍綠政治傾向的受試者,對於與自己立場相符的假新聞較難辨識,但對於立場相反的假新聞則較容易看穿。
  • 同溫層效應:即便是高教育程度者,也可能在同溫層內無意識地傳播假新聞。

4. 假新聞對社會的影響

  • 加劇社會與政治極化:假新聞使不同政治立場的群體變得更加對立,極端化趨勢加劇。
  • 台灣的假新聞趨勢:根據 V-Dem 資料庫顯示,台灣境外假新聞自 2012 年開始增加,國內政黨散播假訊息的頻率自 2020 年明顯波動。
  • 研究發現:政治類假新聞的傳播範圍與速度遠高於其他類型,幾乎是一般假新聞的 3

5. 如何避免被假新聞欺騙?

💡 專家建議的應對方法
 暫緩分享可疑資訊:給媒體與查證單位時間驗證,避免散播錯誤資訊。
 查核訊息來源:使用台灣事實查核中心國際新聞查證機構確認新聞真偽。
 比對多家可靠媒體:避免只依賴單一來源,參考不同新聞機構的報導。
 提高媒體素養:培養批判性思考,避免因個人情緒或立場影響判斷。


📌 結論:本研究顯示,人類的 心理特性(真實偏誤、記憶與知識、情緒、既存立場) 會影響對假新聞的判斷,使得假新聞更容易被相信與傳播。

  • 假新聞的傳播速度快,對社會極化影響深遠,因此應透過 查證、媒體素養與批判性思考 來避免上當受騙。
  • 最好的做法:當你看到一則可能是假的新聞時,請先 停下來查證,而不是立即轉發!

📢 透過這篇文章,我們能學到如何運用心理學知識來辨識假新聞,保護自己不被誤導!


AI 愛情詐騙

隨著 AI 技術的進步,詐騙手法越來越精細,以下是 AI 愛情詐騙的 詳細運作流程

1️⃣ 目標選擇與資料收集

詐騙者會在 社交媒體、交友軟體(如 TinderFacebook Dating)、論壇 甚至 LinkedIn 上尋找潛在受害者,通常鎖定:
 單身者  剛經歷失戀、喪偶的人(情感較脆弱,容易信任他人)。
 中年或老年族群(較少使用 AI 反詐騙工具,防範意識較低)。
 尋找異國戀的人(跨國情感較難驗證真實性)。

他們會收集受害者的公開資訊,例如:
🔹 生活習慣、興趣愛好(透過 FacebookInstagram
🔹 感情狀況(從動態貼文判斷是否剛分手或渴望戀愛)
🔹 經濟能力(若受害者在 LinkedIn 上標明高薪職位,容易成為詐騙目標)


2️⃣ 建立假身份(Fake Persona

詐騙者會創造一個 完美的戀愛對象,通常包含以下特徵:
 高顏值 AI 生成照片(使用 Deepfake StyleGAN 創建不存在的臉)
 迷人的職業背景(軍官、醫生、企業家、飛行員,讓受害者崇拜)
 有說服力的社交帳號(包含多張 AI 生成的照片、朋友互動、專業背景描述)

️ 有時候詐騙者會盜用真實人物的照片,或者混合 AI 生成的內容,使其更難被識破。


3️⃣ 接觸與建立情感連結

·  詐騙者使用 AI 聊天機器人(ChatGPTClaude 來模擬流暢、甜蜜的對話,製造「靈魂伴侶」的錯覺。
· 他們會每天問候、分享生活點滴,甚至錄製 AI 合成語音 來增強可信度。
· 有些高級詐騙者甚至會使用 Deepfake 影片,讓受害者相信對方是真人。

📌 例子
💬 「親愛的,今天工作好累,但能跟你聊天真的讓我放鬆很多,你是我這輩子遇過最特別的人!」AI 生成的訊息)

💬 「你知道嗎?我一直在找像你這樣懂我、溫暖的人,我真的覺得我們很契合。」(營造親密感)

這種 「情感轟炸」(Love Bombing 讓受害者放下戒心,進而深陷其中。


4️ 製造緊急需求,開始詐騙

當受害者完全信任詐騙者時,對方會開始提出金錢需求,理由通常有:
🚨 見面需要機票錢(「我存夠了一半,但還差 500 美元!」)
🚨 投資詐騙(「這個加密貨幣項目可以賺大錢!」)
🚨 醫療費用(「我媽媽住院了,但我的資金被凍結了!」)
🚨 遭遇危機(「我被困在某國,急需 2000 美元才能回家!」)

如果受害者遲疑或拒絕,詐騙者會:
️ 表現出受傷、失望,甚至威脅結束關係,讓受害者內疚而付款。
️ 以結婚或長期交往為誘餌,承諾未來會還錢。
️ 轉向裸聊詐騙,如果受害者傳送私密照片,詐騙者會威脅曝光並勒索。


📢 如何保護自己?

 小心「完美戀人」: 太理想的對象通常是假的,尤其是異國戀、照片過於完美者。
 要求視訊通話: Deepfake 影片仍有破綻,真實通話能測試對方是否為真人。
 反向搜尋圖片: 使用 Google 反向圖片搜尋,查驗對方照片是否來自網路。
 不轉帳、不投資: 任何網戀對象要求金錢都是詐騙!
 留意語言風格: AI 生成的對話通常過於完美且缺乏個性,可用 AI 檢測工具 來測試對話是否為 AI 生成。


📌 總結

AI 愛情詐騙利用 AI 生成圖像、Deepfake 影片、語音模擬、AI 聊天機器人 來營造「理想戀人」,目標是 騙取金錢或勒索受害者
💔 千萬別被「浪漫」沖昏頭! 保持警覺,避免成為 AI 詐騙的下一個受害者! 🚨


 

 

消息公佈欄

跳至網頁頂部