

OpenAI最新部署的GPT-4o多模态模型正面临甜蜜的烦恼。3月28日,公司CEO萨姆·奥特曼在X平台确认,由于图像生成请求量呈指数级增长,已启动临时速率限制机制。"每生成一张4K精度的图像,相当于处理500页文本的算力消耗,"内部工程师透露。
此次升级的突破性在于文本-图像协同生成能力。测试显示,GPT-4o可连续执行"生成穿西装的黑猫→添加VR头显→置入赛博朋克场景"这类多层指令,其上下文记忆窗口扩展至128K tokens,远超Stable Diffusion等单点模型。但中文等非拉丁语系的文字渲染仍是技术洼地,错误率比英文高47%。
限速措施背后是残酷的硬件现实。据半导体行业分析机构Tirias Research测算,单次GPT-4o图像生成需调用8块H100 GPU协同工作,能耗相当于3个美国家庭的日均用电量。这迫使OpenAI做出取舍:优先保障企业级API用户的服务质量,同时将免费用户的访问权限压缩至每日3次。
值得注意的是,该限制恰逢NVIDIA新一代B100芯片量产延期。这批采用3nm工艺的加速卡原计划Q2交付,其FP8运算性能较H100提升30%,被视为缓解AI算力荒的关键。行业观察家认为,OpenAI的紧急制动反映了多模态AI商业化的深层矛盾——用户体验越流畅,基础设施承压越显著。
目前,ChatGPT Plus订阅用户仍可无限制使用图像功能,但响应时间延长至平均12秒。奥特曼强调正在优化模型架构,包括实验性的动态精度缩放技术,可根据任务复杂度自动调整算力分配。微软Azure的最新监测数据显示,OpenAI专用集群的GPU利用率已连续72小时维持在98%的警戒线以上。
