本站AI自動(dòng)判斷提供您所需要的app下載:點(diǎn)我下載安裝,你懂的APP
本篇文章給大家談?wù)?a href="http://m.hljstys.com/t108363.html">機(jī)械戰(zhàn)警游戲音樂,以及機(jī)械戰(zhàn)警游戲?yàn)槭裁礇]了的知識(shí)點(diǎn),希望對(duì)各位有所幫助,不要忘了收藏本站喔。
文章詳情介紹:
「黑鏡」回歸!劇中的殺戮機(jī)械狗或在兩年內(nèi)來到你身邊
機(jī)器之能,是機(jī)器之心旗下關(guān)注全球人工智能產(chǎn)業(yè)應(yīng)用場(chǎng)景及商業(yè)化的內(nèi)容賬號(hào)。歡迎關(guān)注與互動(dòng):almosthuman2017
你覺得波士頓動(dòng)力的 SpotMini 很萌?它可能是為殺戮而造的。
編譯 | 王宇欣、王藝
作者 | Dom Galeon
來源 | Futurism
無頭的守衛(wèi)犬
畫面中,三個(gè)人正在執(zhí)行任務(wù),準(zhǔn)備闖入一個(gè)看似被遺棄的倉庫。他們要幫助一個(gè)奄奄一息的人,讓他最后的日子好過一點(diǎn)。他們看上去非常緊張,臉上掛著絕望的神情。
幾分鐘之后,我們終于明白他們?cè)诤ε率裁础kS著情節(jié)的推進(jìn),一只四條腿,由太陽能供能的機(jī)器犬進(jìn)入畫面。它看起來和波士頓動(dòng)力最新版本的 SpotMini 差不多。
在最新一季的英劇「黑鏡」第五集 Metalhead 中,這只狗被稱為「The Dog」。和 SpotMini 一樣,The Dog 沒有頭。相反,它的頭部位置裝有一個(gè)玻璃箱,里面是許多的傳感器,包括一個(gè)復(fù)雜的計(jì)算機(jī)視覺系統(tǒng)(我們可以推測(cè)出這些是因?yàn)楫嬅鏁?huì)不時(shí)地切換到機(jī)器犬的視野)。
然而和 SpotMini 不同的是,The Dog 帶有一大堆先進(jìn)的武器。例如,一種向潛在的小偷或是行兇者發(fā)射彈片狀追蹤設(shè)備的手榴彈;它的前腿上裝有威力大到足以爆頭的槍械;它還可以連接到計(jì)算機(jī)系統(tǒng),通過解鎖一些安全門或是駕駛智能車輛來執(zhí)行更多的高科技任務(wù)。
The Dog 不是那種常規(guī)的守衛(wèi)狗。它,致命,無情,能夠追捕和摧毀任何與它相遇的人。就像開頭的人物那樣,不管闖入的準(zhǔn)備做的多么充足,遠(yuǎn)離它都是最聰明的選擇。
就像「黑鏡」中的許多技術(shù)一樣,這樣的機(jī)器犬其實(shí)離我們并不遙遠(yuǎn)。在像美國和俄羅斯這樣熱衷于研發(fā)人工智能武器的國家,像波士頓動(dòng)力這樣的公司正在積極開發(fā)符合這些需求的機(jī)器犬。
所以,我們與 The Dog 這種人工智能加持的守衛(wèi)犬到底還有多遠(yuǎn)?
內(nèi)有惡狗請(qǐng)小心
據(jù)專家介紹,「黑鏡」中機(jī)器犬的一些特征與現(xiàn)實(shí)已經(jīng)非常接近了。11 月,一個(gè)關(guān)于未來「屠殺機(jī)器人」的視頻快速傳播,視頻介紹了一種被設(shè)計(jì)用來搜索并消滅特定人類目標(biāo)的自動(dòng)無人機(jī)。從網(wǎng)絡(luò)評(píng)論中,我們看到了人們對(duì)這類機(jī)器人的不適。
幸運(yùn)的是,這項(xiàng)技術(shù)和視頻本身都是虛構(gòu)的,但是視頻制作小組的一員,加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授 Stuart Russell 告訴外媒 Futurism 說,「我們已經(jīng)具備了所有的基礎(chǔ)技術(shù)。這項(xiàng)任務(wù)不會(huì)比自動(dòng)駕駛的難度更大;主要問題在于投資和努力,如果成立項(xiàng)目組并有無限的資源投入(就像曼哈頓計(jì)劃),屠殺機(jī)器人這樣的東西在兩年內(nèi)就可以投入使用。」
集群智能公司 Unanimous AI 的創(chuàng)始人兼 CEO Louis Rosenberg 對(duì) Russel 的斷言,即完全自主化的武裝無人機(jī)將很快成為我們生活常規(guī)的一部分,表示同意?!敢呀?jīng)非常接近了,」Rosenberg 對(duì) Futurism 說到「20 年前,我估計(jì)全自動(dòng)機(jī)器無人機(jī)將會(huì)在 2048 年以前被使用。今天,我不得不說,這一天會(huì)更早到來?!顾A(yù)計(jì)這樣的自主武器可能會(huì)在 2020 年到 2025 年之間大規(guī)模生產(chǎn)。
盡管「搜索和消滅」這樣的人工智能功能離我們已經(jīng)很近了,但是 Russel 認(rèn)為,「黑鏡」中的 The Dog 離實(shí)現(xiàn)仍有一段距離。
制造這種機(jī)器人殺手的問題可以追溯到狗在各種不同環(huán)境中無障礙活動(dòng)的能力?!脯F(xiàn)實(shí)世界中,狗能夠長(zhǎng)時(shí)間地在不同的環(huán)境中進(jìn)行切換,并且會(huì)遇到很多意想不到的事件。然而現(xiàn)階段的軟件很容易會(huì)混亂,然后陷入困境,因?yàn)樗鼘?duì)外部世界發(fā)生的事情沒有概念?!筊ussel 說。
隱形戰(zhàn)爭(zhēng)電視劇(隱形戰(zhàn)爭(zhēng)電影) - 櫻花動(dòng)漫
軟件問題不是機(jī)器人殺手所面臨的唯一阻礙?!赣懈觳灿型鹊臋C(jī)器人在操控不熟悉的物體時(shí)仍然有一些困難,」Russell 說道。但在「黑鏡」中,經(jīng)過訓(xùn)練,The Dog 甚至能夠精準(zhǔn)地控制菜刀。
和今天的機(jī)器人不同,The Dog 沒有那么容易被騙?!甘聦?shí)上,機(jī)器人仍然很容易被騙。它們目前無法對(duì)之前未了解過的事情采取對(duì)策。比如說,激光雷達(dá)探測(cè)器太薄,無法正確探測(cè),或者某些干擾設(shè)備使用虛假信號(hào)導(dǎo)致導(dǎo)航混亂等?!筊ussell 說。
請(qǐng)看好你的狗
在最后,我們似乎達(dá)成了共識(shí),在未來我們有能力把這樣的機(jī)器狗帶到生活中來。但是我們真的應(yīng)該這樣做嗎?
Rosenberg 和 Russell 都同意,將人工智能武器化這一做法會(huì)給世界帶來更多的傷害,特別是將其作為武裝或是「殺手機(jī)器人」?!肝艺嬲\地希望不會(huì)發(fā)生這種情況。我相信從根本上自動(dòng)化武器就是危險(xiǎn)的。他們將復(fù)雜的道德層面的決策交給沒有人為判斷力的算法來進(jìn)行。」Rosenberg 解釋說。大多數(shù)智能手機(jī)上的自動(dòng)更正算法都經(jīng)常會(huì)犯錯(cuò)誤,他繼續(xù)說道,同樣,自動(dòng)化武器也可能犯錯(cuò)。Rosenberg 表示,「我相信要讓這樣的技術(shù)完全可靠,我們還有很長(zhǎng)的一段路要走?!?/p>
的確,如今大多數(shù)人工智能算法都非常復(fù)雜。但這并不意味著他們做好了充足的準(zhǔn)備以作出判定生死的決策。
其中最大的障礙是,大多數(shù)算法的內(nèi)部工作機(jī)理對(duì)我們來說都是無法理解的。Aiva Technologies(這家公司構(gòu)建了一種創(chuàng)作音樂的人工智能)的 CEO,Pierre Barreau 通過郵件對(duì) Futurism 表示,「目前,深度學(xué)習(xí)有一個(gè)很大的問題就是技術(shù)的黑箱問題,這讓我們無法真正理解為什么算法會(huì)作出這樣的一些決定。因此,在將這些技術(shù)應(yīng)用到武裝領(lǐng)域作一些敏感決定時(shí)就涉及到了很多問題,比如人工智能會(huì)針對(duì)某一情況作出何種反應(yīng)?它的意圖是否與人類意圖相符?這些我們都無從得知。」
用人工智能作出重大的決定似乎太過隨意,比如國際特赦組織對(duì)自動(dòng)化武器的批判?!肝覀冋J(rèn)為完全自主的武器系統(tǒng)無法遵守國際人權(quán)法和國際警務(wù)標(biāo)準(zhǔn)?!笰mnesty 的軍控顧問 Rasha Abdul-Rahim 通過郵件對(duì) Futurism 說道。
人類在做出這些決定時(shí)也不完美,但至少我們可以展示出自己思考的過程,他人能夠理解某個(gè)人是如何做出這一決定的。這和機(jī)械戰(zhàn)警決定是否對(duì)某人使用泰瑟槍時(shí)完全不同?!溉绻糜诰S持治安,那么我們必須同意機(jī)器可以自行決定是否對(duì)人類施加武力,」Russell 說道,「我懷疑社會(huì)對(duì)此將會(huì)有很多反對(duì)意見?!?/p>
Unanimous AI 的集群智能預(yù)測(cè)到,在未來,全球范圍內(nèi)的管理組織可能會(huì)禁止或阻止使用自主機(jī)器人武器。我們可以對(duì)集群智能的預(yù)測(cè)保佑一定的期待,至少,Unanimous AI 在過去已經(jīng)成功預(yù)測(cè)過很多事情。
然而,另外一些人聲稱,只要受到嚴(yán)格監(jiān)管,按照預(yù)期使用技術(shù),一些國家可能會(huì)允許使用自主化武器。Russell 指出,包括 Henry Kissinger 在內(nèi)的一些領(lǐng)導(dǎo)人都提出要禁止直接攻擊人類的自主化武器的設(shè)計(jì)與制造,但是仍然允許這些武器運(yùn)用于空中和潛艇作戰(zhàn)當(dāng)中。
Abdul-Rahim 表示,「因此,我們必須對(duì)紅十字國際委員會(huì)所稱的『關(guān)鍵職能』,即目標(biāo)的明確和武力部署等,進(jìn)行有效和有意義的人為管控。」
一些專家提出了兩者中的細(xì)微差別。自主化武器在一種情況中是可以存在的,但不能用于其他情況,雖然這樣的方法可能難以實(shí)施,一些人則堅(jiān)持這樣的規(guī)定還不夠。Abdul-Rahim 表示,「國際特赦組織始終堅(jiān)持呼吁各方要在發(fā)展、生產(chǎn)、運(yùn)輸?shù)确矫鎿屜葘?duì)全自助化武器系統(tǒng)進(jìn)行禁止。」但是這樣的呼吁可能已經(jīng)太遲了,一些國家已經(jīng)開始了人工智能武器的研發(fā)。
Russell 和很多其他專家一直以來都有參與到停止人工智能武器的發(fā)展和使用的呼吁行動(dòng)中,一個(gè)由 116 個(gè)國際領(lǐng)導(dǎo)者組成的小組近期就這個(gè)問題給聯(lián)合國發(fā)表了一封公開信,據(jù)說聯(lián)合國已經(jīng)在考慮相關(guān)禁止事宜。Rosenberg 總結(jié)說:「我們希望法律的限制能夠阻止歷史進(jìn)程的推動(dòng),讓它不會(huì)發(fā)生?!?/p>
人工智能可以使我們世界上大部分地區(qū)發(fā)生革命性的變化,這毋庸置疑,甚至包括戰(zhàn)爭(zhēng)和其他國際沖突的解決方式。屆時(shí)將由國際立法者和領(lǐng)導(dǎo)者決定是否發(fā)展自動(dòng)化武器或者無頭機(jī)器守衛(wèi)犬等技術(shù)。然而比起益處,戰(zhàn)爭(zhēng)終將造成更多傷害。
NACON Connect 2023將推出《機(jī)械戰(zhàn)警》、《魔戒:咕?!返扔螒?/h2>IT之家 3 月 8 日消息,NACON 公司在游戲圈內(nèi)的知名度并不是很高,不過在過去幾年時(shí)間里,這家總部位于法國的發(fā)行商也推出了不少游戲。NACON 公司宣布將于 3 月 9 日舉辦 2023 年的 NACON Connect 活動(dòng),將會(huì)推出 25 款游戲。
NACON 公司在本次活動(dòng)中推出的主打游戲就是《RoboCop: Rogue City》,這是基于 1987 年經(jīng)典科幻電影《機(jī)械戰(zhàn)警》的第一人稱設(shè)計(jì)游戲,不過講述了該系列的全新故事。
該游戲目前已經(jīng)在 Steam 平臺(tái)上架,不支持簡(jiǎn)體中文,IT之家附這款游戲的相關(guān)介紹如下 :
成為標(biāo)志性的半人半機(jī)械英雄警察,嘗試把正義帶到犯罪猖獗的危險(xiǎn)底特律舊城。依靠你值得信賴的 Auto-9 手槍、工業(yè)制造的力量、多年的警隊(duì)經(jīng)驗(yàn)和各種工具,與想要摧毀你的家鄉(xiāng)城市的勢(shì)力戰(zhàn)斗,以全新的第一人稱視角,體驗(yàn)追尋真相的爆炸性過程。你有權(quán)自行決定如何完成主要指令,但隨著劇情的展開,你要謹(jǐn)慎行事,因?yàn)檫@里的腐敗和貪婪沒有下限。
在視頻中還展示了奇幻冒險(xiǎn)游戲《魔戒:咕嚕(IT之家備注讀音:gū lū)》,該作將于 2023 年年中時(shí)間發(fā)布。此外視頻中還透露其它游戲包括:奇幻冒險(xiǎn)游戲《Ravenswatch》、恐怖游戲《Ad Infinitum》和摩托車模擬游戲續(xù)集《TT3:Ride on the Edge》。