如何避免被假新聞欺騙——用心理學看人性弱點
1. 假新聞如何影響人類判斷?
在資訊爆炸的時代,假新聞、謠言與錯誤資訊充斥社會,影響人們的判斷。陽明交通大學傳播與科技學系教授陶振超指出,影響人類判斷真假的 四大心理因素 分別是:
✅ 真實偏誤:人類本能上傾向相信他人,看到或聽到的訊息通常會直覺認為是真實的。
✅ 記憶與知識:人們根據過去經驗與現有知識來判斷資訊的真偽,容易受到錯誤記憶影響。
✅ 情緒影響:假新聞通常使用更情緒化的語言,激發人們的恐懼與憤怒,使其更容易被傳播。
✅ 既存立場:人們對符合自己政治立場的新聞較容易相信,即使內容是錯誤的。
2. 訊息中的「雜訊」如何影響判斷?
- 訊息中的噪音與雜訊可能會干擾我們的判斷,使人誤解資訊內容。
- 例如,在選舉報票現場的影片中,因為某些聲音位置較近,導致部分民眾誤以為「作票」,但完整影片顯示實際情況並非如此。
- 這類錯誤判斷可透過「訊號偵測理論」解釋,即人類在接收資訊時,會受到干擾因素影響,導致判斷失準。
3. 真假訊息判斷的挑戰
(1)真實偏誤:人類天生容易相信他人
- 例子:柯文哲的錄音檔曾被深偽技術(deepfake)偽造,雖然後來經鑑定為偽造,但許多民眾在未查證前就已相信並傳播該訊息。
- 原因:假新聞常冒用「官方文件」或「新聞樣式」,讓人直覺認為有公信力。
(2)記憶與知識:資訊背景影響判斷
- 例子 1:陽明交大教授黃紹華的言論被冒用,因為與其過往風格不符,熟識他的親友一眼就識破假訊息。
- 例子 2:前立委蔡正元曾誤信一則美國記者的諷刺推文,將其當作「拜登毀滅台灣計畫」的真實證據,導致媒體爭相報導並引發騷動。
(3)情緒影響:假新聞利用煽動性語言
- 假新聞多使用 誇大、煽動 的標題,例如:「上海一天染疫 40 萬人」,這類標題容易引發恐慌,使訊息迅速傳播。
- 研究發現:
- 假新聞的傳播速度是一般新聞的 3 倍。
- 最熱門的假新聞可達 10 萬次分享,而即使是受歡迎的真新聞,最多僅約 1,000 次分享。
- 假新聞的傳播速度是一般新聞的 3 倍。
(4)既存立場:人們更容易相信符合自身立場的新聞
- 心理學研究顯示:當新聞內容符合個人政治立場時,人們更容易相信並記住它,即使該新聞是假的。
- 例子:藍綠政治傾向的受試者,對於與自己立場相符的假新聞較難辨識,但對於立場相反的假新聞則較容易看穿。
- 同溫層效應:即便是高教育程度者,也可能在同溫層內無意識地傳播假新聞。
4. 假新聞對社會的影響
- 加劇社會與政治極化:假新聞使不同政治立場的群體變得更加對立,極端化趨勢加劇。
- 台灣的假新聞趨勢:根據 V-Dem 資料庫顯示,台灣境外假新聞自 2012 年開始增加,國內政黨散播假訊息的頻率自 2020 年明顯波動。
- 研究發現:政治類假新聞的傳播範圍與速度遠高於其他類型,幾乎是一般假新聞的 3 倍。
5. 如何避免被假新聞欺騙?
💡 專家建議的應對方法:
✅ 暫緩分享可疑資訊:給媒體與查證單位時間驗證,避免散播錯誤資訊。
✅ 查核訊息來源:使用台灣事實查核中心或國際新聞查證機構確認新聞真偽。
✅ 比對多家可靠媒體:避免只依賴單一來源,參考不同新聞機構的報導。
✅ 提高媒體素養:培養批判性思考,避免因個人情緒或立場影響判斷。
📌 結論:本研究顯示,人類的 心理特性(真實偏誤、記憶與知識、情緒、既存立場) 會影響對假新聞的判斷,使得假新聞更容易被相信與傳播。
- 假新聞的傳播速度快,對社會極化影響深遠,因此應透過 查證、媒體素養與批判性思考 來避免上當受騙。
- 最好的做法:當你看到一則可能是假的新聞時,請先 停下來查證,而不是立即轉發!
📢 透過這篇文章,我們能學到如何運用心理學知識來辨識假新聞,保護自己不被誤導!
AI 愛情詐騙
隨著 AI 技術的進步,詐騙手法越來越精細,以下是 AI 愛情詐騙的 詳細運作流程:
1️⃣ 目標選擇與資料收集
詐騙者會在 社交媒體、交友軟體(如 Tinder、Facebook Dating)、論壇 甚至 LinkedIn 上尋找潛在受害者,通常鎖定:
✅ 單身者 或 剛經歷失戀、喪偶的人(情感較脆弱,容易信任他人)。
✅ 中年或老年族群(較少使用 AI 反詐騙工具,防範意識較低)。
✅ 尋找異國戀的人(跨國情感較難驗證真實性)。
他們會收集受害者的公開資訊,例如:
🔹 生活習慣、興趣愛好(透過 Facebook、Instagram)
🔹 感情狀況(從動態貼文判斷是否剛分手或渴望戀愛)
🔹 經濟能力(若受害者在 LinkedIn 上標明高薪職位,容易成為詐騙目標)
2️⃣ 建立假身份(Fake Persona)
詐騙者會創造一個 完美的戀愛對象,通常包含以下特徵:
✅ 高顏值 AI 生成照片(使用 Deepfake 或 StyleGAN 創建不存在的臉)
✅ 迷人的職業背景(軍官、醫生、企業家、飛行員,讓受害者崇拜)
✅ 有說服力的社交帳號(包含多張 AI 生成的照片、朋友互動、專業背景描述)
⚠️ 有時候詐騙者會盜用真實人物的照片,或者混合 AI 生成的內容,使其更難被識破。
3️⃣ 接觸與建立情感連結
· 詐騙者使用 AI 聊天機器人(ChatGPT、Claude) 來模擬流暢、甜蜜的對話,製造「靈魂伴侶」的錯覺。
· 他們會每天問候、分享生活點滴,甚至錄製 AI 合成語音 來增強可信度。
· 有些高級詐騙者甚至會使用 Deepfake 影片,讓受害者相信對方是真人。
📌 例子:
💬 「親愛的,今天工作好累,但能跟你聊天真的讓我放鬆很多,你是我這輩子遇過最特別的人!」(AI 生成的訊息)
💬 「你知道嗎?我一直在找像你這樣懂我、溫暖的人,我真的覺得我們很契合。」(營造親密感)
這種 「情感轟炸」(Love Bombing) 讓受害者放下戒心,進而深陷其中。
4️⃣ 製造緊急需求,開始詐騙
當受害者完全信任詐騙者時,對方會開始提出金錢需求,理由通常有:
🚨 見面需要機票錢(「我存夠了一半,但還差 500 美元!」)
🚨 投資詐騙(「這個加密貨幣項目可以賺大錢!」)
🚨 醫療費用(「我媽媽住院了,但我的資金被凍結了!」)
🚨 遭遇危機(「我被困在某國,急需 2000 美元才能回家!」)
如果受害者遲疑或拒絕,詐騙者會:
⚠️ 表現出受傷、失望,甚至威脅結束關係,讓受害者內疚而付款。
⚠️ 以結婚或長期交往為誘餌,承諾未來會還錢。
⚠️ 轉向裸聊詐騙,如果受害者傳送私密照片,詐騙者會威脅曝光並勒索。
📢 如何保護自己?
✅ 小心「完美戀人」: 太理想的對象通常是假的,尤其是異國戀、照片過於完美者。
✅ 要求視訊通話: Deepfake 影片仍有破綻,真實通話能測試對方是否為真人。
✅ 反向搜尋圖片: 使用 Google 反向圖片搜尋,查驗對方照片是否來自網路。
✅ 不轉帳、不投資: 任何網戀對象要求金錢都是詐騙!
✅ 留意語言風格: AI 生成的對話通常過於完美且缺乏個性,可用 AI 檢測工具 來測試對話是否為 AI 生成。
📌 總結
AI 愛情詐騙利用 AI 生成圖像、Deepfake 影片、語音模擬、AI 聊天機器人 來營造「理想戀人」,目標是 騙取金錢或勒索受害者。
💔 千萬別被「浪漫」沖昏頭! 保持警覺,避免成為 AI 詐騙的下一個受害者! 🚨