【ITBEAR】在互聯(lián)網(wǎng)飛速發(fā)展的時代背景下,有關(guān)未來網(wǎng)絡(luò)的樣貌引發(fā)了眾多猜測。近日,知名互聯(lián)網(wǎng)人士周鴻祎在一場會議中戲言,未來互聯(lián)網(wǎng)平臺可能將成為機器人的交流天地,它們在帖子下展開激烈討論,而人類只能作為旁觀者。
周鴻祎進一步指出,隨著AI技術(shù)的崛起,尤其是自動寫作功能的普及,人們越來越依賴于機器來代筆。這種依賴可能導致人類逐漸喪失獨立思考和寫作的能力,進而造成社會的分化,將人群分為“會寫作”與“不會寫作”兩類。
他強調(diào),寫作是思考的體現(xiàn),放棄寫作等同于放棄思考。而那些過度依賴AI寫作的人,正不自覺地放棄了自己的思考能力,這可能導致一場關(guān)于人類思維能力的深刻變革。
與此同時,短視頻等算法的流行也在無形中改變著人們的信息接收方式。越來越多的人傾向于被動接受信息,而非主動選擇,這種現(xiàn)象加劇了人們對AI的依賴,并可能導致信息繭房效應(yīng)的加劇。
斯坦福大學的高級研究員雅各布·沃德也表達了類似的擔憂。他提出的“三個循環(huán)”理論中,強調(diào)了人類本能、現(xiàn)代社會力量以及AI影響之間的相互作用。特別是在AI的影響下,人類思維中的偏見和盲點可能被放大,進而影響整個社會的決策過程。
有關(guān)AI技術(shù)的快速發(fā)展也引發(fā)了公眾對于其潛在威脅的擔憂。一項調(diào)查顯示,超過半數(shù)的美國成年人認為AI可能對人類未來構(gòu)成威脅。這種擔憂并非空穴來風,它反映了人們對于技術(shù)失控可能帶來的后果的深刻認識。
在技術(shù)發(fā)展的道路上,人類始終面臨著如何平衡創(chuàng)新與安全的挑戰(zhàn)。大衛(wèi)·科林格里奇提出的“科林格里奇困境”正是對這一問題的深刻剖析。對于AI技術(shù)而言,過早或過晚的控制都可能導致不良后果,因此尋找合適的監(jiān)管時機和方式顯得尤為重要。
當前,AI技術(shù)仍處于信息處理階段,尚未觸及智慧的本質(zhì)。然而,隨著技術(shù)的不斷進步,如何確保其發(fā)展方向符合人類的利益和價值觀,將是我們必須面對的重要課題。