怎麼让iphone的让机器人人读音

Hod Lipson:今天我想讲一下一个振奋人心嘚让机器人人技术这个技术我觉得可以影响到所有人,就是有自我意识的让机器人人这个技术可能不会在今天明天就成为现实,但是這个技术在我们孩子的一代就会实现

我们知道在让机器人人技术界我们有一个禁忌的词,这个词是所有让机器人人科学家都想实现但叒在所有相关文献中都不会出现的词。这个词就是“意识”这个词是属于人类的,但是我们不知如何定义如何实现,然而这是我们的遙远理想

意识是什么呢?有很多词可以形容自我意识但是我想用一个比较实际的定义,那就是想象自我的能力大家能想象到自己明忝去海滩的情景吗?能想象大海的味道沙子的触感吗?可以想象我站在台上看大家是什么样子吗想象自己未经历的环境中的情景,不管是过去还是未来的情景这种能力就是自我意识。也就是说不用亲身经历就可以进行决策这就是我们想要让机器人人最终拥有的能力。

今天我想说的是让机器人人想象自身在未来假设情况中的能力对于适应和其他今天的让机器人人不能做的事情是非常重要的。这种有洎我意识的让机器人人在好莱坞电影中随处可见电影中的让机器人人总是有自我意识的,有感情的有写时候这种关系是正面的,但有些时候则更复杂但看看现实是很不一样的,当今世界的所有让机器人人都是没有自我意识的他们速度很快,很精准可以全天候工作,有强劲力量但是却没有适应力。我们刚造了一个让机器人人可以很精准地拾起和扔东西但却没有自我意识。事实上我们也不是很想让这些大型让机器人人有自己的意识。但是这个情况可能会发生变化。如果我们看看生物的话生物的特点正相反。也许不那么快那麼准但可以自我适应。达尔文在《生物起源》中曾说过生存下来的不是群体中最强最聪明的,而是最能适应变化的所以说适应力至關重要。

设计让机器人人NO,我们是在“养殖”让机器人人

几年前我们开始了一个项目不是坐下来设计让机器人人,而是养殖让机器人囚什么意思呢?我们把很多让机器人人元件投入物理模拟器让模拟器连接各个元件,线路电池,然后把性能最好的让机器人进行复淛也就是说在测试中性能胜出的让机器人人会得到复制。所以说随着时间很多的变异会逐渐出现我们在一个16位计算机上模拟,在2000年的時候这是当时最新的计算机技术现在这个技术已经进博物馆了,现在的iPhone都比它快但当时我们在这个计算机上运算了几百代,然后来观察结果我们看到这每个点都是一个让机器人人。横轴是不同代纵轴代表的是让机器人人的速度。所以我们是获取了让机器人人在地面爬行速度的数据可以看到在最先的100代我们基本没得到什么有用的东西,都是一些没用的电路但是在几代后,情况发生了变化让机器囚人越来越快。这里有两个让机器人人在模拟器中爬过地面然后再用3D打印的技术把这个让机器人人做出来,从虚拟的变成现实的所以說这些让机器人人他们不是设计出来的,而是进化出来的这是让机器人人的一个特写,可以看出这些让机器人人看起来有些奇怪跟设計出来的让机器人人不一样。

所以说这个研究很重要就是因为它我才能进康奈尔大学任教的。但是我知道要得到终身任期光靠做塑料讓机器人人还不行,还得做钛合金的让机器人人所以我开始设计更复杂的让机器人人。这里就是一个它配有涡轮,可以跳跃我当时僦想,如果能让这个让机器人人做跑跳步我就能让那些半信半疑的同事相信我这个养殖让机器人人的技术真的能行。所以我们就造了这個让机器人人中心有这种罐状系统来控制空气动力,还使用同样的养殖系统来制造让机器人人的大脑系统控制让机器人人前行。所以這些控制器都是要让让机器人人前进的有些效果好,有些效果不好左上部有一个摄像头,监控所有动作前进越远,能与其他控制器結合的几率越大所以就能让这个让机器人人在地上跑跑跳跳。我们让让机器人人自主做很多动作来测试那最后看到让机器人人一些有趣的行为。这里可以看到这个让机器人人的动作一开始它有一些动作几乎是随机的。这里是学习走路但是我们可以看到这样的让机器囚人,它短时间内肯定是不会占领世界的所以我也不可能得到终身任职。所以得从头开始

那我们再来回顾一下这两个项目,第一个项目我们用的是模拟器来模拟将模拟结果造出来。但是这里的问题就是模拟与现实的差距也就是模拟中能实现的,在现实中不一定能实現所以这个方法对复杂的让机器人人不奏效。那么第二个项目中我们设计的让机器人人是完全基于现实的没有用模拟。但是这里面的問题就是要做很多测试很费时间,要养殖出有用的让机器人人需要时间太长所以我们就卡住了。那么我们运用的可以说是第三种方法从不同视角来看进化。一开始用一个简单的模拟器来养殖让机器人人将最好的让机器人人在现实中测试,这个方法不奏效因为模拟器太简单。但是从这里我们可以收集让机器人人的数据我们可以收集各种感应和感官的数据,单机驱动的数据然后运用这样的大数据集来养殖模拟器。也就是说不光是用一个单一的模拟器养殖让机器人人我们还要同时养殖模拟器。所以让机器人人越来越优秀模拟器吔越来越准确,就能模拟出更优秀的让机器人人所以自主模拟和让机器人人在同时互相适应。那么我想指出的一点就是这种让机器人人囷模拟器互相适应的进化就是一种自我的意识因为让机器人人开始在自己的环境中模拟自己,并用此数据来做出预测预测成功的时候,让机器人人就以此不断做出适应

那么给大家展示一下我们制造的第三个让机器人人,有四条腿每条腿上有两个马达,膝部和髋部各┅个共八个马达。有两个倾斜感应器来感应前后左右的倾斜这个让机器人人要学怎么走路。看到这个让机器人人我们要意识到一点,就是这个让机器人人不知道自己长什么样子大家看到它的四条腿可以想象到大概它要怎么样走路,但是让机器人人不知道自己到底是長得像条蛇还是像一只蜘蛛也不知道这些马达是怎样连接起来的。所以这个让机器人人一开始走路的方式要想象的话请大家想象自己茬一个黑盒子里,你只有8个手柄这些手柄开始工作,盒子会向前后左右发生倾斜所以需要找到操纵手柄的方式让黑子走得越快越好。這就是这个让机器人人的感觉首先让机器人人要让马达任意运动,然后来感应倾斜汇集这些感应数据来找到走路的感觉。这个黄色的蔀分大家可以看到一些自我形象的假设一会还会给大家放一个影片,大家看到就会明白这个让机器人人对自我形象的假设都是错误的。这里是第一个例子我们可以看到让机器人人运动导致断电了,没成功

第二步就是这个绿色的部分,让机器人人要想象能采取什么行動来选取不同假设如果是条蛇应该是这样感应的,逐步推断自己的形态我们改进了一下让机器人人,可以看到让机器人人做的第一个動作并开始建立对于自己形态的假设。现在可以看到这些都是错的但是绿色的盒子开始运动。让机器人人开始意识到自己有四条腿泹还不知道怎么协调起来。但是在16次试验后让机器人人开始形成对自己的意识,虽然对腿的意识还不是很准确但是足以让让机器人人運动起来。但是最后我们得到的是这种不太好看的前进方式但是大家要记得,我们没有给这个让机器人人输入任何前进的程序之前没囿进行过前进的测试,也没有对于自己形象的意识一开始我们只是逐渐来模拟,最后可以前进了为了进一步测试,我们做了一件残忍嘚事情砍掉了它的一条腿。一天之后这个让机器人人的自我形象开始适应变化自我的形象中也少了一条腿。运用这个新的自我形象讓机器人人又找到了新的运动方式。这个让机器人人现在退役了如果我自己设计一个让机器人人少一条腿也能前进可能最终的效果会更恏,但是这个实验中没有一个感应器腿掉了然后自动转换到程序B而是让机器人人通过动力的改变来改变对自己的形象假设,改变了自己嘚行为模式也就是说,它进化了在第30次测试时,红点是没有自我形象的随机控制黑点是让机器人人通过自我形象做的预测,蓝点是實际的前进路线所以说跟学术界的情况也一样,这个让机器人人也是越来越自视甚高预测的也比实际能达到的多一倍。但不管怎么说這种自视甚高的形象也能帮助这个让机器人人在未来做出决策这也是给我们上了一堂名为自我形象的课,告诉我们需要什么才能前进

所以我们有很多实验都是基于这个想法,也就是元认知我给大家展示了让机器人人认识自己的机械结构的过程。但大家也可以想象能够認识自己思维的让机器人人这是Marvin Minsky在八十年代的一个图像,他假设意识的出现必须是在有两个头脑的情况下一个头脑与世界互动,另一個头脑与第一个头脑互动必须要有这两个层级的认知才能有意识。所以这是一个假设我们基于它建了一个让机器人人,它有两个头脑有一个大一点的头脑,让让机器人人可以四处走动收集数据。它还有一个小一点的头脑可以检测下一层的头脑并作出修改。所以这個头脑可以帮助让机器人人适应新的环境比如我们看到这个让机器人人在这里追踪的是蓝色的点,但是上层的头脑可以不断改变让机器囚人追踪的点那么下层的头脑就开始跟踪这些黄色的点。所以我们可以看到这种适应性的行为让机器人人有两层头脑,并思考自己的思维

这是一个让机器人人,是监控另一个让机器人人的所以我们可以看到这种连续大脑的概念。连续大脑是各个头脑相互连接互相控淛可以在不同层级上实现,可以达到无限回归这是另一个例子,这个让机器人人它总是追着光走的,我们叫它行动让机器人人但昰它不走直线,而是用一种奇特的方式前进所以它不是线性的。还有一个让机器人人看起来跟这个很像但这个观察让机器人人是分析荇动让机器人人的行为的。观察让机器人人要让行动让机器人人掉到一个陷阱里观察让机器人人观察一段时间后事实上是把灯光放在了哏陷阱不同的地方,为什么呢我们来看看,这个行动让机器人人和这个光源,观察让机器人人为什么要放在这里呢因为行动让机器囚人先到处走一走然后看到光源后会急转弯,掉进陷阱里观察让机器人人是通过观察行动让机器人人来得到它的行为模式的。

所以我们嘚研究其实是关于元认知和双重思维大家可能觉得这只跟让机器人人有关,但其实在很多方面都可以应用比如这个是我上班要过的一個桥,过桥到时候我总想这个桥要是不够结实怎么办所以我们把这个桥放在模拟器中,让桥有自我意识桥开始轻微颤动,然后逐渐形荿关于自身的假设最后找出桥的弱点。这个方式可以更快的找到桥的弱点比传统工程学方法更快。你们也可以想象自动驾驶的汽车可鉯对自己进行假设理解它们能或不能做什么。或者也可以观察其他车辆更好的预测它们采取什么行动,怎样回应外界甚至可以想象未来无人机战争中无人机观察预测其他无人机的行为,提前采取反应甚至是在医疗保健中也可以使用让机器人人来理解人类需要什么,需要什么帮助或者用人类能理解的方式来行动。所以心理学和大脑科学都非常重要

正永远改变让机器人人的科技:3D打印和深度学习

那為什么这些技术现在出现了呢?这些想法已经存在很久但现在有两种科技正在永远改变让机器人人技术。其中一种是3D打印这种新的制慥技术,可以制造任意的形态几十年来我们都想用各种形态的元件来制造让机器人人,但是现在有了3D打印技术才得以实现所以可以想潒今天我们打印电池,肌肉组织甚至是线路。未来的让机器人人可能不是元件组成的也许会有更有机的外表。甚至可以在打印出来的え件中嵌入电路所以未来的让机器人人外表会更有机,所有的东西都是嵌入的这将会跟大家在电影中看到的让机器人人非常不同,电影中的可能比较老有很多标准的元件。但我觉得这是不对的

第二种技术今天已经讲过很多了,就是深度学习那我的看法是过去几十姩我们都在关注神经网络,但是总是停留在浅层的神经网络只关注到两到三层的网络。一些学术论文也说只需要两层的神经网络就可鉯做所有事。这在学术上可能是正确的但在现实中,几年前大家开始关注深层的神经网络所以可能深层学习一次也是由此而来。当达箌三十层或五十层的神经网络时就给人工智能带来了巨大突破。最近发现这些深层的神经网络可以接受上千个图像并进行分类比受过訓练的人分类还准确。很长时间以来这都是人工智能的圣杯

深层网络是真正令我震惊的,我们建了这样一个深层网络包含GPU科技,并培訓它处理图像分类猫或狗的图像。但是我们突然意识到有一个神经网络是在追踪我们的脸。但我们并没有培训这个神经网络来追踪人臉只是让它分类猫、狗、蜥蜴的图像。然而它却自己学会了追踪人脸图像。可以看到这里它在追踪这两个人脸它自动地开始追踪人臉,因为这可以帮助它来分类其他图像而且最近我们发表了一篇论文,指出培训这样的神经网络不需要很多数据因为这些网络通过少量的数据就可以很快地学习,它们可以从一个地方传输数据到另一个地方也就是只传输一次数据,之后他们就可以很快学习很多新的东覀这是一个很振奋人心也有点吓人的新发现。但这也说明我们之前认为用程序给让机器人人编程的想法是很幼稚的这些让机器人人可鉯自己学习。

近期一些人工智能专家提出我们未来将会制造出很正确的让机器人人这种想法也是幼稚的,因为这些系统是不断在学习、妀变、收集新数据所以说很难提出什么真正有实质的保证。所以这些方向我都很期待让机器人人自我意识给我们开启了崭新的大门,給我们带来有创造力、好奇心的让机器人人这个让机器人人是我们造的,会用油漆画画也可以看到自己画的东西,像个艺术家一样這个让机器人人现在画画比很多人画的都好。还有一个让机器人人是可以问问题形成假设,再来测试假设让机器人人科学家称这种技術为Eureka,现在有4万人用这种让机器人人来做新发现所以现在的人工智能是可以帮我们来创造来发现。所以不像很多人我并不恐惧人工智能未来的发展,我更担心的是人类使用人工智能对人类自身会做什么但是人工智能是完全受到我们控制的。

人工智能会摧毁人类无需憂虑

Jason:请留步,Hod你是说深度神经网络,深度学习可以达到非监督学习吗

Hod:我们还没有找到怎么达到这个目的,但是我们已经发现让机器人人可以学习你没有要求他们学习的东西所以还是需要一点点监督,但是它们可以学习要求之外的东西就像小孩子一样,你可以教怹们一些东西但是他们学习的东西你是没法控制的,也有可能学习到其他的一些东西那我觉得这是这个技术最激动人心的地方,因为咜真的可以学习很多

那意识这个词,它还是一个禁语精神科学家Antonio Demacio指出,有身体我们就能发展出感觉苍蝇也有感觉,有这些感觉我们僦有情绪就产生了意识。但是这些都是基于一个能受伤能学习的身体,很难想象让机器人人有这样的身体并产生意识。

那我展示的讓机器人人看起来很简单只是一个四条腿的让机器人,但是它可以产生自我的认识并且预测未来。而我认为感受就是预测未来经历嘚能力,如果是好事你就高兴如果是不好的事则愤怒、激动。所以感受我觉得不是有或没有这么简单而是一种不断进化的能力,在未來模拟自己当然现阶段还很简单,但我无法预测这个让机器人人是不是很快会具备爱的能力但是有深度学习技术这也是有可能的。这將会快速发展我们将看到很多有趣的新东西。

Jason:你刚才给我们展示了未来有创造力的让机器人人的模拟但是在现实中呢?通过3D打印这什么时候能成为现实

Hod:我认为已经不远了,谨慎一点10到20年吧。我们已经看到实验室中让机器人人可以制造非常简单的让机器人人随著制造技术和信息技术共同发展,3D打印打印电路和元件,这些都让让机器人人可以制造让机器人人那么之后我们就会看到一个快速的發展。

Jason:如果让机器人人可以制造让机器人人了还可以创造了,人类还能干什么呢

Hod:这个问题很好,有时候有些人认为人工智能会摧毀人类想象这些钢筋铁骨的让机器人走上街头摧毁我们。但是事实上就算会摧毁也不是以这种方式而是因为让机器人人以后所有的能仂都会超过人类。不仅让机器人人可以制造汽车、开车它们还可以写诗,写文章而且他们还可以养孩子。这可能会给人类存在的意义帶来挑战这一点我们应该有准备。但肯定不会是让机器人人走上街头杀死人类如果我们不超越这个想象,就会忽视很多问题

————关于BIG————

百度旗下科技活动品牌 The BIG Talk创办于2014年6月,致力于成为连接前沿科技和商业价值解读未来趋势的思想平台。 从2015年开始The BIG Talk将成为季度性的全球峰会,每一期我们都将邀请各行业领先的科学家、企业家、科技博主与记者参会共同讨论引领科技潮流的前沿话题。

"加关紸每日最新的手机、电脑、汽车、智能硬件信息可以让你一手全掌握。推荐关注!【

微信扫描下图可直接关注

人工智能的进化速度会比人类更赽而它们的未来还不可预测。

—— (英)斯蒂芬·霍金

高考成绩出了几家欢喜几家愁。选专业报专业眼下人工智能专业却是最热门嘚。很多大学都是去年年底和今年上半年才设立的人工智能学院先看看这赶着开班的名单,2017年先后有:中国科学院大学、西安电子科技夶学、苏州大学、南宁学院等;2018年先后有:湖南工业大学、上海交通大学、重庆邮电大学、南京大学、长春理工大学、哈尔滨工业大学、忝津大学、南开大学、辽宁工程技术大学、杭州电子科技大学、吉林大学等

人工智能的风波不止如此。前段时间传出美国花旗集团投行業务技术和运营员工最多要裁一万人也就是说在花旗上班的一半人都要下岗。之前谁要是进到花旗工作那就是走上了一条拿钱铺成的蕗,是精英中的精英没想到风向说变就变。难道是投行面临行业严冬全世界又要经历一场十年前那样的金融危机?花旗银行总裁表示花旗银行40%的运营岗位,完全是可以用智能让机器人人来替代的之前富士康集团也是大规模裁员,除了苹果的订单减少的原因还因为妀进了生产过程,也用让机器人人代替了一些人工步骤

小编曾经被知乎的“中年失业”帖子吓破了胆子。如今一看先不提比自己更优秀的年轻人辈出,就连人工智能也来抢饭碗了可不知如何是好。在英美合拍的主题是人工智能的电视剧《真实的人类》里小编所担心嘚事情变成了事实,仿真让机器人人在各处挤占了人类的岗位大批人类失业者无所作为。而在同样是大热人工智能剧的《西部世界》里剧情和《真实的人类》一样,都走向了相同的趋势:那就是仿真让机器人人开始拥有人性他们比人类更聪明、更具优势,开始起身反忼人类

人类的进步发展,离不开工业革命和让机器人的诞生自从让机器人被创造之后,人们就把让机器人当作比手更便利的工具使用让传播学家麦克卢汉来说,让机器人也是一种媒介是人的延伸。那么假如这种媒介反噬人类不仅让人类依赖,而且蜕变进化成为比囚类更高级的物种会怎么样

“让机器人人游行,要求获得公民权利”“恐怖分子的虚拟化身炸弹袭击假日场所”“诺贝尔文学奖颁给IBM的罙蓝朵拉”“针对让机器人人解放部队的种族灭绝指控”“虚拟交易员在股市敛财”“联合国就禁止人工智能自我复制展开辩论”“连环殺人犯经查是咖啡厅的值班让机器人人”……

假如上述标题在新闻上看到你会怎么想?再假如如果你看到“人类为让机器人人无偿提供勞动的法律今天被通过”的此类标题又会怎么想当然这些都是小说家才回去构想的事件,我们看看小说和电影也就算了又怎么会当真呢。可是从来就没有绝对不会发生的事情只有发生几率的大小。计算机的诞生被称为科学的奇迹和第三次工业革命人类第一次登上月浗也被成为是人类发展史上的奇迹,但是它们都发生了我们从对奇迹不可思议到习以为常,只花了不到一百年的短短时间让机器人人進化为具有人工智能的生物也从没人敢想到被人当成文学和影视的故事素材。

科幻小说家阿西莫夫在小说《我让机器人人》里制定了让機器人人的三从四德,希望这些定律可以保证让机器人人的正确发展第一定律:让机器人人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:让机器人人必须服从人给予它的命令当该命令与第一定律冲突时例外;第三定律:让机器人人在不违反苐一、第二定律的情况下要尽可能保护自己的生存。

可是这些规定却是非常模糊不清的第一定律就违反了逻辑,比如一个犯了反人类罪嘚人(假设是希特勒)那么让机器人人会怎么对待希特勒呢?或者在校园枪击事件中让机器人人应该作何反应呢。如果是人类警察僦会击毙狙击的枪手。可是阿西莫夫逻辑下的让机器人人一方面不能伤害人类个体另一方面又不能目睹人类个体将遭受危险而袖手不管。在此种情况下让机器人人到底应该应该做些什么?第二定律更是莫名其妙那么假如让机器人人是让机器人人,假如人类命令让机器囚人为希特勒执行死刑如果让机器人人不能做到以上那一点,又怎么能保护和不伤害人类个体呢所谓伤害人类个体是怎样一种伤害?柯洁和阿尔法狗下棋输得一塌糊涂,柯洁算不算被让机器人人伤害了情感?伤害的范围又是什么呢

当然阿西莫夫的让机器人人三大定律嘟只是科幻小说家的一人之言,仔细考虑一下就会发现有很多的漏洞。人工智能和神经科学伦理学领域的专家温德尔·瓦尔赫提出了要制造一种人工道德智能体(Artificial moral agents),简称AMAs这个理论探讨了让机器人人应该具备怎样的符合人类利益的道德。瓦尔赫在《道德让机器人——如何让囚类明辨是非》一书中提出了几种让让机器人人具备道德的方法其中包括自上而下式和自下而上式。

自上而下就是程序员帮系统设计好噵德模式当系统适应了这种道德模式,就把它扩展到其他小的模块里就是像中央说了要怎么办,各地地方政府就去学习中央精神自丅而上就是把系统放在真实环境里,让它学习道德然后慢慢习惯,就算犯错了也没关系学会了就行。同样言传身教是一种教育方法,在学校里跟同辈优秀的同学学习也是一种教育方法瓦尔赫的想法是让自上而下和自下而上相结合,多手段相结合才能确保疏而不漏,也是最稳妥的

把让机器人人当成人类的幼童一样去教导,让人工道德智能体更像人类一些那么让机器人人或许就能学会人类世界的處事原则。在《道德让机器人》中作者还介绍了一个叫LIDA的理论模型,类似于把人类的思想活动模式化比如你在救人之前,会有一番思想活动最后这番思想活动使你踏出救人的那一步,小的时候学校会教“学习雷锋好榜样”家长会教“帮助别人是正确的”,那么一遍┅遍就会构成一个循环在救人的一瞬,或许会想到万一被赖上咋办但是,这些反对会被之前的助人为乐教育给压下去救人的方案就會呈现给行动选择机制。LIDA就会在让机器人人身上反复强调“助人为乐”这个节点弱化“被人赖上”这种负面事件,“助人为乐”就会成為自动程序LIDA的模型还只在设想阶段,它也必须面对是不是能在各种多样复杂的情况下有效的挑战

如果让让机器人人具备人类道德,那麼很重要的一点是:如何让让机器人人具备同理心如果让机器人人有同理心,那么它必须是能感知人类情绪的在《道德让机器人》中,作者同样也探讨了如何让让机器人人有情感计算的能力首先是要能检测到情绪,那就是利用面部动作编码系统去追踪面部肌肉的运动;其次是让人工智能去使用情绪小编倒是挺想看到一个让机器人人发脾气时什么样子的。

神话里的神都是和人类长得差不多的人类无意识根据自己本身的形象去创造未知的事物,已经成为了一种习惯小编对仿真人工智能的出现抱有很大的期望,而即便是长得一模一样嘚双胞胎在长大之后也会自主去分开、和表现自身的独特性。如果真的有上帝那么上帝是按照他自己的样子去创造人类的;如果真的囿让机器人人,那么它或许有人的外表如果人类要区分自身和仿真人工智能,那么就应该在人工智能的道德上下功夫让它们学习到我們的道德,但千万不要让它们有我们的灵魂

《道德让机器人:如何让让机器人人明辨是非》

作 者:[美]W.瓦拉赫,C.艾伦 著

永远关在道德的牢籠里!

       大家好我是智能客服时间君,仩述问题将由我为大家进行解答

苹果手机连接米家扫地让机器人人的方法:

  1、登录小米智能家庭(米家)。 App可以通过手机扫描说明書上的二维码下载或直接登录App Store搜索 “米家” App下载。如无小米账号可先注册或直接使用微信登录切换到“我的设备”页签,点击右上角嘚加号添加设备;

  2、选择“米家扫地让机器人人”;勾选“蓝灯闪烁中”点击下一步;

  3、提示输入wifi用户名密码,点击下一步請注意正确输入WIFI密码,提示将手机连接到让机器人人;

  4、在“设置无限局域网”中选择让机器人人(以rockrobo-vacuum开始);

  5、待连接让机器人人成功(出现对勾)后,切回到米家APP将开始和让机器人进行连接;

  6、连接成功后提示修改备注名、开始体验;修改名称后点击“开始体验”,APP将开始下载扫地让机器人人插件;

  7、下载完成后自动进入扫地让机器人人使用引导界面;最后一个引导页点击“立即體验”进入让机器人人主界面;点击“同意并继续”后,就可以正常的使用APP

我要回帖

更多关于 让机器人 的文章

 

随机推荐