美团龙猫API平台上线

美团外卖悄悄推出了 AI 模型API 平台。

美团龙猫API平台上线-2

刚刚,继上周推出LongCat大模型之后,美团直接把API平台给放出来了。

而且,他们不仅兼容OpenAI的API格式,还支持Anthropic的接口协议。从这架势看来, 美团的野心显然不是只想内部用用那么简单。

每天10万免费tokens

美团这次出手“相当”大方, 每个开发者每天可以免费使用10万tokens (按1元/百万tokens来算,对应每天一毛钱,一个月满打满算我们能薅它个3块钱,省下来的钱够咱在蜜雪冰城点上一杯美团外卖了)。

美团龙猫API平台上线-3

网友adapt(@happiness1rich)看到这个数字后直接惊呼:

每天10w?这么豪

相比其他平台动辄几美元起步的收费模式,美团这个(面向小白鼠的)免费额度也算是相当慷慨了(这里我们就不和OpenAI,Gemini 去比了)。

并且需要注意的是,这些额度每天凌晨自动刷新,前一天没用完的会清零,不会累积到第二天。

目前平台处于公测阶段, 暂时还不支持付费购买额度 。

也就是说,如果你的项目需要更多tokens,可能还得等等。我找了一圈,也没有找到API 的token 价格说明。

双接口兼容设计

LongCat API 的一大的亮点是 同时兼容OpenAI和Anthropic两种主流API格式 。

也就是说,开发者几乎不需要修改现有代码,只需要更换一下base URL就能直接接入自己项目中使用。

OpenAI格式接入 :

from openai import OpenAIclient = OpenAI(    api_key="YOUR_APP_KEY",    base_url="https://api.longcat.chat/openai")response = client.chat.completions.create(    model="LongCat-Flash-Chat",    messages=[        {"role": "user", "content": "Hello!"}    ],    max_tokens=1000)

Anthropic格式接入 :

from anthropic import Anthropicclient = Anthropic(    api_key="Authorization: Bearer YOUR_APP_KEY",    base_url="https://api.longcat.chat/anthropic/",    default_headers={        "Content-Type": "application/json",        "Authorization": "Bearer YOUR_APP_KEY",    })response = client.messages.create(    model="LongCat-Flash-Chat",    max_tokens=1000,    messages=[        {"role": "user", "content": "Hello!"}    ])

当然,如果你更喜欢直接调用API,也可以使用cURL:

# OpenAI格式curl -X POST https://api.longcat.chat/openai/v1/chat/completions   -H "Authorization: Bearer YOUR_APP_KEY"   -H "Content-Type: application/json"   -d '{    "model": "LongCat-Flash-Chat",    "messages": [{"role": "user", "content": "Hello!"}],    "max_tokens": 1000  }'# Anthropic格式  curl -X POST https://api.longcat.chat/anthropic/v1/messages   -H "Authorization: Bearer YOUR_APP_KEY"   -H "Content-Type: application/json"   -H "anthropic-version: 2023-06-01"   -d '{    "model": "LongCat-Flash-Chat",    "max_tokens": 1000,    "messages": [{"role": "user", "content": "Hello!"}]  }'

模型能力与限制

目前平台仅支持 LongCat-Flash-Chat 这一个模型,定位是「高性能通用对话模型」。

单次请求的输出上限是 8K tokens ,对于大部分应用场景来说应该够用了。

不过也有用户反馈速度问题。

Vu Tran(@anhvu92)测试后表示:

I got 9 tokens/sec. Is it supposed to be this slow?(我只得到9 tokens每秒的速度。这是正常的吗?)

9 tokens/每秒的速度是有点慢,希望美团后续能优化一下性能。

Tiezhen WANG(@Xianbao_QIAN)也调侃道:

At LongCat speed, 100 k tokens vanish in a blink.(按LongCat的速度,10万tokens一眨眼就没了。)

每天100,000 的免费token 额度,看起来多,但消耗起来其实也挺快。

不信你上 Claude Code 试试,一句“你好你谁”可能就干光了……

全球化还需努力

虽然平台已经上线,但在国际化方面还有不少细节需要完善。

Niemontal(@niemontal)反馈了一个语言问题:

Can you tweak it, so that it answers in English, if the prompt is asked in English? In most cases it just preffers answering in Chinese, and if you are aiming for international audience with this...(你能调整一下吗?如果提示词是英文的,就用英文回答?大多数情况下它更倾向于用中文回答,如果你们想要面向国际用户的话……)

即使输入的是英文,模型似乎还是倾向于用中文回答。

这对国际用户来说,确实不太友好。

Justin(@JustinGorya)则遇到了注册问题:

cant register. Email is not getting send(无法注册。邮件发送不出去)

邮件发送失败,连注册都进行不下去。

美团龙猫API平台上线-4

Enes Gogalic(@themandalorenzo)也遇到了类似的问题:

I am receiving a Chinese QR code on your link(我在你的链接上收到了一个中文二维码)

这……

美团龙猫API平台上线-5

让老外们用美团APP 来扫码,是有点太为难人了……

还有开发者希望能支持OpenRouter。

f1shy-dev(@vishyfishy2)提出:

can we get @OpenRouterAI support?(我们能得到@OpenRouterAI的支持吗?)

Francisco Cordoba(@fcordobaot)也表示支持这个建议。

如果能接入OpenRouter,确实会让外国友人们使用这家中国外卖公司的AI 模型要更便利许多。

外卖公司的野心

Tony Lee(@jeongmin1604)称:

wow... delivery app to AI company... lmao. AM I WATCHING REAL WORLD NOW??? (哇……外卖应用变成AI公司了……笑死了。 我现在看到的是真实世界吗???)

从送外卖到搞AI,美团的跨度似乎不小。

美团龙猫API平台上线-6

但仔细想想,美团手里有海量的本地生活数据,有强大的技术团队,也一直在做AI 的研究和积累,名字还自带两AI, 转型 做AI倒也不算太意外。

而有趣的是Eric Guo(@ecguo)的担心:

用美团账号绑定这个平台后,会被杀熟吗?毕竟大家都知道搞AI 比较有钱。。

这个担心……好像也不是完全没道理?

使用流程

注册成功后,系统会自动创建一个名为「default」的API Key。

美团龙猫API平台上线-7

整个流程倒是挺简单:

访问LongCat API开放平台

注册账户

登录后进入API Keys页面查看密钥

在请求头中使用: Authorization: Bearer YOUR_API_KEY

同一个API Key可以同时用于OpenAI和Anthropic两种接口格式 ,这点设计还是挺贴心的。

美团龙猫API平台上线-8

美团这次推出LongCat API平台,多少还是暴露出了其在AI 领域的野心:

不会只甘于做个送外卖用的AI,而是要将自己的AI 能力,像骑手一样送到全世界的每个角落中去。

[1]

版权声明:
作者:shadowrocket
链接:https://www.shadowrocket9.top/97.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>