iOS神器降临,DeepSeek再次更新
快一点,再快一点。嘿,这是黑猫。相信大家都知道了,国行iPhone不会接入DeepSeek,而是接入阿里、百度。不少果粉对于苹果此举都感到不理解,只能眼睁睁地错过DeepSe
快一点,再快一点。
嘿,这是黑猫。相信大家都知道了,国行 iPhone 不会接入DeepSeek,而是接入阿里、百度。不少果粉对于苹果此举都感到不理解,只能眼睁睁地错过 DeepSeek 这个国运级AI。
因此,前段时间我决定发布「国行苹果人工智能」快捷指令。
它最核心的功能,就是在快捷指令这一 iOS 原生应用里,集成DeepSeek 大模型。让果粉们在不借助任何APP的情况下,都能随时调用 DeepSeek-R1 进行文字对话。轻量、简约、强大。
文字对话是最传统的用法,若止步于此,那也还不错,只是我不是一个满足于还不错的人。
在互联网时代,一个产品不够极致,那就没有存在的意义。
它可以通过文字和DeepSeek进行交流,但不能通过图片来进行交流。
而图片识别的需求,其实是广泛存在的,苹果自家的Apple Intelligence,也内置了视觉模型,而且可以和本地生活应用进行联动。
为了实现图片对话功能,我其实尝试了好几天。并不是这个功能有多难,而是因为捷径的限制,我无法直接发送图片给 DeepSeek 。经过大量、反复的尝试,才终于找到了完美的解决方案。
现在「国行苹果人工智能」捷径,升级至V4版本。新增「魔猫之眼」视觉模型,可以调用 DeepSeek Vl2视觉模型,进行图片对话。
这就意味着它的使用场景变得更加丰富,比如:图片取字、图片翻译、物体识别、穿搭建议、日常问题咨询、甚至面相分析,都是可以实现的。
图片所传递的信息,要比文字更接近日常,更丰富,也更直观。
同时,我对它的交互也进行了大量简化。只需要选择「魔猫之眼」,在相册里输入图片,输入问题即可。
至此,「国行苹果人工智能」捷径的完善度,总算是赶上了 APP 的 70%。