突然,我想起来OpenAI最近出来的ChatGPT 4o模型,这个新的模型不是有实时视觉交互和图像识别功能么,请教一下它不就可以了。我打开手机,调出ChatGPT 4o,遗憾的是视觉实时交互功能还没有更新,我只好简单拍了张照片上传询问,因为GPT有自主分析的本能,这里我并不太想听他啰嗦,于是我在上传照片以后,写了如下指令。
提示:今天的瓜,选哪个好?不需要你分析,直接告诉我买哪个。
GPT 4o的响应速度明显比GPT 4.0要快啊,它几乎是秒回我,一句废话都没有,让我直接选中间右边第三排最右的那个西瓜。我按照它的建议,心满意足的把这个西瓜买了带回家。到家以后,迫不及待的切了一块,验证一下GPT 4o的选择是否靠谱。
我拿了一小块放在嘴里,顿时感觉甘甜多汁,味道极佳。从此手里有多了一个挑瓜神器,这个模型是靠谱的。
其实GPT 4o除了挑瓜,还可以用来挑人。我有一个开公司的朋友特别看中一个员工,有几个管理岗位空缺,他想提拔培养一下这个员工,一时不知道把他放在哪个管理岗位。于是,我建议他用GPT 4o分析一下,我朋友使用GPT 4o上传了一下拟提拔人员的照片,通过对面相和性格分析,GPT 4o给出了他的分析意见和建议。
本文链接:https://www.xiaogua.cc/gpt-4o/55.html
GPT-4o抢先测gpt4o和gpt4GPT-4o人机交互取得进步gpt4o免费多少次gpt4o免费用户gpt4o免费额度gpt4o语音gpt4o iphonegpt4o介绍gpt4o性能