ai绘画你懂的 WWDC24画的饼有点香!看懂苹果AI都能干点啥?|凰家评测
不管AI行业如何定义,今晚苹果再次定义AI为Apple ,这也是昨晚发布会的最大看点,堪称救场环节,否则史诗更新就只剩下了iPad有了计算器。
虽然AI是一个明年才能吃到的饼,但还有很多功能值得我们好好期待一波的。我也帮大家总结了一下Apple 对你最有帮助的三大功能,赶快点个赞,我们一起来看。
戳此看视频
Siri
首先就是,有AI加持后,第一个飞升的就是Siri,直接从蛋蛋期超进化成了究极体,还有了新外观,在呼出时,光晕会环绕整个屏幕,有种AI Siri掌控整个手机的感觉。但也的确如此,Siri可以帮你执行App里的各种操作,只需要一个指令就能够调度多个应用进行操控。
比如说,帮我们在相册里找在哪拍的照片,再帮我修图加个好看的滤镜,然后再帮我加入到备忘录里,或者帮我们把这种照片改成谁的通讯录里的照片,Siri都可以代劳。
我们在手机上所有照片、日历、日程、文件、短信、邮件,或者什么酒店预定信息、车票机票信息、电影演唱会门票、甚至是朋友分享过的链接等等,Siri都会发现并理解,在你需要的时候,帮助你更好的理解,你下达的指令。
比如当你忘了某个重要的工作安排,是在邮件还是短信还是备忘录来着,Siri会帮你自动检索找到。再比如在你填写个人资料信息的时候,忘了护照的号码,爸妈的身份证号,Siri也能帮你在相册里找到。注意这只是更为聪明的检索,更厉害的是Siri可以感知个人所处的情境。
比如我们可以直接问,朋友之前说过的航班是几点落地,我们说过餐厅是哪一家?Siri就会在聊天记录里找到这些信息。然后我们接着问,那落地之后从机场到餐厅要多久,堵不堵车?Siri就会直接给出建议。不再需要我们在聊天记录里翻,然后在大众点评里看地址,然后在高德地图里搜路线。这一切的一切Siri,或者说是基于Apple 的Siri都会帮你搞定。
而且Siri终于可以听懂自然语义交流了,大家不用每次跟Siri说话,自带一股人工智能味,你的倒装、停顿,甚至一些修改,都会被理解,知道你说的这个,那个,这里,那里,是什么?比如我问明天海坨山什么天气会不会下雨,接着再说,帮我订一个明天去那里的日历提醒,他就会知道我说的那里是指“海坨山”。如果你不方便讲话,还可以通过文字输入来进行交流。
而对于隐私一向严苛的苹果,是把这些一切涉及到你信息的处理,都放在端侧,或者私有加密云,这个苹果的私有云,甚至服务器芯片都是Apple ,做到了全链路把控。所以跟之前传闻完全不同,苹果的AI没有依赖外部大模型,而是通过挂载的方式,让外部大模型的更多知识,再适当时候帮助你。
比如你问一些非隐私问题时,Siri无法给到更好的答案,就会问你是否请求来帮忙,而目前来看,只会涉及到Siri问答和文字创作功能。而且苹果还强调,未来会引入多个大模型,满足你的不同需求,Siri搞不定的事,苹果会帮你找这个领域更专业的大模型来搞定,这种兼容开放,虽然很不苹果,但是对用户体验最好的保障。
而且即便是非隐私问题,在调用外部模型时,Siri也会询问你,获得授权之后,再将你的问题发送给。比如当你问家里的阳台养点什么花合适时,Siri会问你是否要把图片发给来问问结果。当你想编写一个故事时,也可以借用的创作功能,让它给你答案。而像图片创作、百科咨询等等的那些功能,都可以通过Siri直接调取,非常的方便。
最重要的是,通过Siri来使用-4o完全免费,直接帮你省去了大模型的月租,让我们点个赞谢谢Siri。现在唯一的谜题就是,国内的挂载大模型,使用哪家的方案,反正苹果这种端+云+挂载的方式,起码国行的AI能力,不会面临全面阉割了。
写作工具
第二个AI带来的重要功能就是写作工具。让Apple 帮你整理笔记,总结摘要,这些国产厂商早就普及的功能,咱们就不多说了。比较不一样的是,可以帮助你进行重写,你可以让他调整语气,来重新写一封邮件,或者把邮件结构改的更清晰,文采更飘逸,反正你可以让他写到你满意为止。如果还是不满意,那就更换某一个词汇,或者直接提取总结个摘要,搞个精简提炼的版本出来。
而文案优化也是跟Siri一样,当你对于本地处理的内容不太满意的时候,可以请求外部挂载大模型的支持,给到你更丰富的答案。
除了帮你写作,Apple 会对你收到的邮件、信息,进行总结和理解,比如在邮件列表里只显示总结出来的重要内容,或者把那些比较重要关键的事,给你总结在通知当中,时刻提醒你。甚至在专注模式下,也会帮你筛选出重要的消息,在必要的时候提醒你。对你手机上出现的一切文字信息进行理解,并为你所用,是我认为Apple 最为强悍的地方。
让每天陪伴你的、iPad、Mac,真正把它所理解你的使用习惯、你的兴趣、你的规律,释放了出来,让这些设备,可能真正成为你的电子助理。
图像工具
除了文字之外,第三个就是图像工具,可以让AI,把你的文字创造成具有想象力的图像。比如Apple 带来一个非常可爱有趣的功能,就是我们可以在聊天过程中,用描述创造出一个最为贴切应景的Emoji。比如你可以创造一个即翻白眼又呕吐的emoji,或创造一个夹着三文鱼寿司的汉堡,或者把朋友照片直接生成一个最适合他的emoji,然后发在当前的聊天框中,这些都是可以的。
当然,大模型基本技能文生图,Apple 也支持,可以通过内置的Image 应用,文字描述直接生成图片。不过苹果的Image ,相比现有大模型,给出了一种更简单的方式,可以通过选取几个词来生成AI图片。比如,生日、聚会、幻想、冒险等某个主题;厨师、外星人、魔法师等某个服饰;城市、沙滩、沙漠、森林某个地点等等,或者是朋友的一张照片,通过你在不同种类里选择的词,来生成一张图片,帮你省去了费劲吧啦想关键词的过程,通过更简单的选择来完成图像创作。
除了简单的文生图,在笔记中新增了Image Wand功能,可以直接将你的画的简笔画,优化成一个具有更多细节的图片,也可以根据当前的文字段落自动生成一张配图。非常的易用和方便。
这两个功能来看,苹果还是更加注重AI的实用性,而不是为了AI而AI,所有功能都是生成一些在实际使用场景可以产生帮助的图片,而不是把AI当做一问一答,考验AI绘画水平的小游戏。
而且AI的语义检索能力,在图像方面也同样支持。你可以直接在相册里搜索一句描述的话,比如穿黄裤子的女孩在玩滑板的精彩动作。或者搜索视频里的某一段,爆炸头小妹翻跟头的视频,都可以直接帮你找出来。更有意思的是,Apple 还可以在相册帮你编故事,比如你说,我儿子挑战天元邓刚,他就会自动挑选照片,选择配乐,帮你创造出一条拥有故事情节的蒙太奇回忆短片。是不是很有意思。
并且现在主流的AI消除路人功能,在全新的相册app中也得到了支持,这个未来更新之后,我们也会第一时间给大家试试,苹果的AI消除,跟现在主流国产厂商的安卓对比,究竟谁的算法更好?
Siri、写作工具、图像工具这三大功能都是可以基于端侧和加密云进行,对隐私有着更好的保护,只有你需要更丰富的内容时候,Siri和写作工具,才会调用三方大模型。不过需要注意的是,这些能力需要在M芯片的Mac电脑,以及A17 Pro芯片以上的设备才能使用,简言之就是,目前想体验苹果AI,你得换一台 15 Pro或者未来的 16。
总结
苹果的AI,是今年WWDC最大看点,而苹果似乎也用一种非常苹果的方式,把AI引入、iPad和Mac。不出卖灵魂,系统核心能力由自己的AI完成,只有自己的大模型,才知道用户的习惯、你的联系人、你拍过的照片,而且更多基于端侧,保证了隐私。而外部挂载的大模型,更像是苹果手持的一件满级武器,补充用户更多的需求,以及更多领域的知识,让Siri的可用性再度提高,但是完全不会涉及隐私问题。
而且苹果的AI,对于用户来讲最强的部分,在于打通系统底层,它不是单独的一个app,而是会学习你各个app的内容,学习文字、图片、视频内容,对于你的需求,你所在的场景,是一个全方位的了解,所以想必可以给到你更加个性化,更加符合你需求的答案和帮助。
这种深植生态、需要app开发者配合的模式,正是苹果的天然优势,庞大的开发者社群和不可否认最强的生态建设,将是苹果AI不服务于功能本身,而是服务于用户的最强后盾。至于能不能喊出那句Only Apple Can Do,还要看今年秋季更新之后,体验的实际效果。
不知道通过我们的总结,大家是明白了昨晚发布会,苹果AI发布了什么?如果明白了,记得帮我点上一个大大的赞,虽然Apple 这张饼最早今秋才能吃上,但我相信苹果这套打法一定会给整个行业带来不小的启发。
这里是凰家评测,这里有一群专业、有趣又认真的小伙伴,致力于用最「硬核」的态度,做最「有料」的评测,我们下期见。
往期回顾:
【一刀不剪】小鹏G9 XNGP北京早晚高峰实测|凰家评测拯救手残党!用vivo S19 Pro教你人像大片如何一拍就有?
荣耀200系列体验:2万一张人像大片,随手就拍?