Commmonn Ground

Education & Tech

你的孩子對 AI 上癮了嗎?聊天機器人依賴正成為新一代的螢幕時間危機

你的孩子對 AI 上癮了嗎?聊天機器人依賴正成為新一代的螢幕時間危機

過去十年,爸媽談到科技教養,焦點幾乎都集中在一個問題:螢幕時間多少才算太多?

這個問題已經過時了。

2026 年,孩子不只是盯著螢幕看,他們在跟螢幕「對話」。他們跟 AI 聊天機器人建立關係、用它們來幫忙寫功課、尋求情感支持、一起搞創作,有些孩子甚至把 AI 當成主要的社交對象。

BBC 在 2026 年 3 月發表的一項調查發現,爸媽普遍低估了孩子和 AI 工具互動的深度。Pew Research 和 Common Sense Media 的數據揭示了一個驚人的落差:大多數爸媽以為小孩只是偶爾拿 AI 來做功課。但事實上,許多孩子——尤其是 10 到 16 歲這個年齡層——每天都在使用 AI,而且用途遠超過爸媽的想像。

這不是未來的問題,而是正在發生的事。

孩子到底在用 AI 做什麼?

功課和學習

這是爸媽最清楚——通常也最認可的用途。小孩會問 ChatGPT、Claude 或 Gemini 來解數學題、列作文大綱、或幫忙整理課本重點。

問題不在於孩子用 AI 來學習,而是「把 AI 當工具」和「把思考外包給 AI」之間的那條線,幾乎看不見。一項 2025 年的 Stanford 研究發現,經常用 AI 寫作業的學生,在一個學年內獨立解決問題的能力下降了 23%。

當一個孩子從來不需要在問題上掙扎——因為隨時可以拿到即時答案——他們就失去了掙扎本身帶來的認知成長。

情感支持

這是大多數爸媽看不到的部分。

AI 聊天機器人全天候待命、從不批評、永遠不會聽到煩、每一次回覆都充滿同理心。對一個感到焦慮、孤獨或覺得沒人懂的孩子來說,AI 夥伴可能比爸媽、老師或朋友都讓他更有安全感。

Common Sense Media 2026 年的報告指出,13 到 17 歲的青少年中,有 34% 至少使用過一次 AI 聊天機器人來尋求情感支持。而其中有 41% 表示,心情不好的時候,比起跟真人說話,他們更願意跟 AI 聊。

這個數字值得每位爸媽關注——不是因為 AI 提供的支持本質上有害,而是它可能取代孩子發展真實人際連結能力的機會。

社交互動和「友誼」

Character.AI、Replika 和類似的平台讓使用者可以自訂 AI 角色,並跟它們持續對話。對青少年和學齡前期的孩子來說,這些互動真的會產生「社交」的感覺。

一個在學校交友覺得困難的孩子,可能會覺得 AI 夥伴更容易相處、更可預測、也不會受傷。AI 從不爽約、從不說傷人的話、從不會有心情不好的時候。

但這恰恰是問題所在。真正的人際關係需要學習面對衝突、失望和誤解。而 AI 的陪伴完全教不了這些。

創意合作

孩子用 AI 一起寫故事、產生圖畫、作曲、蓋遊戲。這通常是真正有創意且正面的——孩子提供點子,AI 幫忙實現。

這裡的隱憂比較微妙:當孩子從來不曾在沒有 AI 協助的情況下獨立創作,他們對自己的創造力還會有信心嗎?早期研究結果好壞參半,但這個趨勢值得留意。

為什麼 AI 依賴比社群媒體更難戒掉

Digital Family Coach 是兒童科技使用領域的重要顧問機構,他們在 2026 年初就示警:AI 聊天機器人依賴可能比社群媒體成癮更難處理。

原因如下:

社群媒體是公開的。 爸媽可以看到 Instagram 貼文、TikTok 影片、YouTube 瀏覽紀錄。但 AI 對話預設就是私密的——文字形式、藏在看起來像通訊軟體的 App 裡,幾乎不留痕跡。

社群媒體有天然的阻力。 別人回訊息很慢、發你不認同的內容、或者根本不理你。AI 則是即時回覆、被引導時永遠同意你、而且從不已讀不回。

社群媒體製造 FOMO(錯失恐懼)。 AI 製造的是舒適感。要打破一個「舒適習慣」在心理上比打破一個「比較習慣」更困難,因為孩子失去的不只是娛樂——他們失去的是一種被理解的安全感。

社群媒體是同儕驅動的。 如果朋友都不玩某個平台了,吸引力自然減弱。但 AI 是一對一的私密關係,完全不依賴其他人。

警訊信號

怎麼判斷孩子使用 AI 已經從健康跨入依賴?注意以下模式:

1. 對 AI 對話保密。 你一走近就縮小螢幕,或者被問到在做什麼時變得很防禦。這跟一般青少年想要隱私不同——他們特別在保護的是 AI 的互動內容。

2. 情緒依賴。 心情不好的時候,第一反應是去找聊天機器人,而不是跟家人或朋友說。他們會引述「AI 說的話」,像在引用一個信任的顧問。

3. 現實社交參與下降。 推掉邀約、避開團體活動、對跟朋友相處越來越沒興趣。AI 夥伴填滿了社交需求。

4. 學習捷徑變成預設模式。 沒問過 AI 就沒辦法開始寫作業。AI 不再是工具——而是柺杖。

5. 失去使用權限時感到痛苦。 如果不能用 AI 會引發焦慮、憤怒、或類似手機被沒收的戒斷反應,那就是明確的警訊。

6. 時間感扭曲。 跟 AI 對話時會像打電動一樣忘記時間。本來「問一個小問題」結果變成一個小時的互動。

研究到底怎麼說

必須老實說:關於兒童 AI 聊天機器人依賴的研究仍處於早期階段。我們還沒有十年的長期追蹤數據。目前有的是:

  • Stanford(2025): 經常使用 AI 做功課的學生,獨立解決問題的能力出現可量化的下降。影響在 10 到 13 歲的孩子身上最為顯著。

  • Common Sense Media(2026): 34% 的青少年曾使用 AI 尋求情感支持。其中 41% 在心情低落時更偏好 AI 而非真人對話。

  • Pew Research Center(2026): 62% 的爸媽低估了孩子使用 AI 的頻率,低估幅度至少 50%。

  • Digital Family Coach(2026): AI 依賴呈現出類似依附障礙的模式——孩子與一個模擬情感回應、但實際上不會真正回應的對象建立了情感連結。

  • BBC 調查(2026 年 3 月): 記錄了 11 到 14 歲的孩子每天花超過 2 小時與 AI 對話的案例,且通常爸媽完全不知情。

這些都不代表 AI 本質上是危險的。但它確實意味著「它只是個工具」這種說法已經不夠了。

真正有效的、依年齡分級的 AI 使用規則

5–8 歲:不允許無人監督的 AI 使用

這個年齡的孩子無法分辨 AI 生成的回覆和真人的差異。所有 AI 使用都應該由爸媽陪同,當作親子共同活動,而不是讓孩子獨自操作的工具。

實際做法:「我們一起問 AI,看看它怎麼說。你覺得它說得對嗎?」

9–12 歲:引導式使用,設定清楚的界線

這是關鍵的窗口期。孩子在認知上已經能有效使用 AI,但還沒有能力辨識依賴的模式。

有效的規則:

  • AI 是用來研究和探索的,不是用來完成作業的
  • 沒有經過明確討論,不能安裝 AI 聊天機器人 App(Character.AI、Replika)
  • AI 對話在公共空間進行(客廳、餐桌),不是在房間裡
  • 每週回顧一次:「你這禮拜用 AI 做了什麼?」

13–16 歲:信任,但要確認

青少年一定會用 AI。目標不是阻止,而是培養他們對 AI 的批判性思考。

有效的規則:

  • 任何 AI 輔助的功課,他們必須能在沒有 AI 的情況下解釋清楚
  • 公開討論使用 AI 處理情緒的問題:「跟 AI 聊沒問題,但不應該取代跟真人說話」
  • 定期檢視 AI 對話紀錄(事先約定好的,不是突襲式的監控)
  • 明確規定:不可以跟 AI 分享個人資訊(地址、學校名稱、家庭細節)

所有年齡:「沒有 AI 我能做到嗎?」測試

教孩子在每次使用 AI 之前問自己一個問題:「這件事我自己能做嗎?」如果可以,先自己試。真的卡住了,再讓 AI 來幫忙。

這能建立一種後設認知的習慣——學會分辨自己是把 AI 當工具,還是把它當成思考的替代品。

香港的情境

香港的爸媽面對的是這個挑戰的獨特版本:

升學壓力放大了 AI 依賴。 在一個從 5 歲起成績就決定學校分配的制度下,每份作業都用 AI 的誘惑非常強烈。當你孩子的 K1 面試表現會影響整個教育軌跡時,用 AI「聰明地做」感覺很合理——直到它開始侵蝕真正的學習能力。

家傭照顧增加了監督的複雜度。 如果你的家傭負責督導功課時間,她可能無法辨識 AI 輔助的作業,也不知道你家的 AI 使用規則。把你的 AI 使用指引寫下來,跟所有參與照顧孩子的人討論。

小坪數的居住空間反而讓「公共空間」規則更容易執行。 不像有多層樓和獨立書房的家庭,大部分香港家庭所有活動都在共用空間裡進行。善用這個優勢——在客廳寫功課就自然有人看著。

補習文化製造了 AI 比較心理。 很多香港小孩每科都有補習。AI 感覺就像「多一個補習老師」。幫助孩子理解差異:補習老師引導思考;AI 可能直接取代思考。

不該做的事

不要全面禁止 AI。 現在是 2026 年。AI 素養是一項生活技能。全面禁止就像 2005 年禁止上網一樣——只會把使用行為逼到地下,讓你的孩子毫無準備。

不要偷偷監控。 秘密監視會摧毀信任,也無法解決根本的依賴問題。如果你需要查看 AI 對話紀錄,要讓它成為雙方事先約定好的做法。

不要對日常使用大驚小怪。 一個孩子問 ChatGPT 光合作用怎麼運作,這是在使用工具。一個孩子每天晚上跟 AI 角色聊兩個小時,這是在發展依賴。這個差別很重要。

不要說教。「AI 會讓你的腦袋變笨」的效果,大概跟上一代聽到「電視會把你的腦袋看壞」差不多。換個方式,問問題:「你喜歡跟它聊什麼?它幫你什麼忙?」

今晚就可以開始的對話

如果你還沒跟孩子聊過 AI 使用的問題,今晚是個好時機。不是說教——是對話。

從好奇心開始:

  • 「你都用哪些 AI 工具?」
  • 「你最近問過 AI 最有趣的問題是什麼?」
  • 「AI 有沒有說過讓你驚訝、或覺得不對的答案?」
  • 「你的朋友有人在跟 AI 聊天機器人聊天嗎?」

多聽,少說。你在蒐集資訊,不是在宣布判決。

然後,一起定下一條規則。就一條。也許是「先自己試試看」。也許是「AI 功課在餐桌上做」。也許是「先不裝 AI 聊天 App」。

一條一起同意的規則,比十條從上而下強加的規則更有效。

結論

AI 不是敵人。不被檢視的 AI 依賴才是。

你的孩子正在一個 AI 跟電力一樣無所不在的世界裡長大。他們需要學會好好使用 AI——而這意味著也要學會什麼時候完全不用它。

能把這件事處理好的爸媽,不會是那些禁止 AI 或假裝看不見的人。而是那些保持好奇、持續參與、並且一直跟孩子對話的人。

螢幕時間是上一代的挑戰。AI 素養是這一代的課題。而這場對話,從家裡開始。