(I)sErvE

2025


Dimension
62x40x29cm
Materials
5’35’’ Animation. Laptop Holder. MDF. Resin.



If everyday decisions can be reduced to data and experience constructed through language models, what weight does lived experience still hold? AI hallucinations—fabricated outputs when models can’t say “I don’t know”—signal a shift into a world structured by texts, where language models often surpass humans and search engines in perceived trustworthiness. (I)sErvE reflects on this reconfiguration through absurd online suggestions, probing how such systems might rewrite reality. While writing my thesis, I saw Google Translate twist my sentences into awkward phrases, hinting at a gradual retranslation of the world into a database reality that could overwrite the original.

如果生活是可以被大數據化約、經驗是可以建構在語言模型之下的話,主體實際體驗現實的重量還有多少呢?AI幻覺指的是語言模型沒辦法說不知道(只能預測),所以開始用它現有的數據庫亂掰的現象。在關於AI幻覺的網路紀錄中,搜尋引擎建議「任何網路上的事是100%真實的。」而在現實情境中,我身邊的人遇到問題第一個找的是chat GPT,他比其他人都更能提供即時且具有信任感的回應。100%的信任搜尋引擎轉向語言模型,好像進入一個前所未有建立在文字的世界。我想透過在網路上蒐集的這些離譜又非現實的建議思考一個由資料庫主導的世界,一個對真實世界的重新編排。我之前在寫論文用了一下google翻譯的時候發現他擅自篡改了我的文字,變成一個難以理解又詭異的字句。如果這是一個漸進式的過程,那有沒有可能這些主動的智慧自動化的轉譯了某種在資料庫中的現實,覆寫原本的現實呢?人類總是依賴於超越自身的事物,而在輸入文字與文字之間,表達的現實逐漸模糊。




¥