广告区域

晓夏

3号体育

3号体育

    百度肖猛:2024年是汽车座舱大模型的元年,明年国内新车渗透率会达80%以上

    2浏览量

    专题:中国电动汽车百人会论坛2024

      中国电动汽车百人会汽车新质生产力论坛于3月17日在北京举行,百度智能云汽车行业解决方案总经理肖猛出席并演讲。

      肖猛表示,和很多厂商交流,他们觉得大模型用在座舱里其实不难,大模型能力也很强,正常对话都很OK,不管GPT还是文心一言对话都挺不错,放到车上就行了。

    重磅,英伟达年度AI大会召开在即,这一板块“涨声”响起!多重利好叠加,机构密集关注这些股

    3浏览量

    英伟达GTC大会即将召开,机器人(300024)行业的未来发展趋势受关注。

    机器人板块早盘大涨

    3月15日早盘,机器人板块多股大涨,概念指数涨超1%,固高科技20cm涨停,瑞德智能、丰立智能、赛摩智能、天奇股份(002009)、智信精密等涨幅居前,均在8%以上

    消息面上,英伟达GTC大会将于3月18日至21日期间在圣何塞会议中心和线上同时举行。根据英伟达官方公众号显示,届时将有超过77家生态系统合作伙伴和超过25台合作伙伴机器人亮相GTC,展示机器人行业的未来发展趋势,其中既有行业巨头,也有娱乐机器人。

    马斯克宣布!xAI将开源聊天机器人Grok,开源与闭源之争再度打响!

    3浏览量

    字越少,事越大!刚刚,马斯克在社交平台X上发了一句言简意赅的话,“这周,xAI将开源聊天机器人Grok。”

    最近,马斯克正在与OpenAI打官司。双方最大的矛盾与分歧,就在于OpenAI是否应当开源,向外界公开ChatGPT的技术细节。马斯克此时选择将自己的xAI聊天机器人开源,被外界视为是在与OpenAI叫板。值得注意的是,在马斯克的这则动态下,有网友回复“OpenAI也应该这么做”,马斯克回复这条评论时表示:“OpenAI是个谎言。”

    阿里CEO吴泳铭:通义千问正加快追赶GPT-4

    3浏览量

      炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

      阿里巴巴集团首席执行官、阿里云智能董事长吴泳铭近日表示,作为国内基础大模型的代表之一,通义千问正加快追赶GPT-4,并把基础大模型能力释放出来。通过开放API/SDK调用等方式,千行百业的开发者和企业用户可以便捷开发人工智能原生应用。

      目前,阿里云可实现芯片之间、服务器之间、数据中心之间的高效协同,支持高达10万卡量级的集群可扩展规模,已服务全国一半的人工智能大模型企业。

    全国政协委员周鸿祎:推动大模型向垂直化、产业化落地

    3浏览量

    专题:稳中求进 发展新质生产力——2024全国两会特别报道

      全国政协委员、360集团创始人兼董事长周鸿祎拟向2024全国两会提交涉及大模型、数字安全等多份提案。大模型在垂直领域大有可为,他建议政府、 央国企率先提供更多应用场景,聚焦“小切口,大纵深”,推动大模型垂直化、产业化落地。“企业用大模型不能冒进,而是要用 AI 逐步改造业务,循序渐进,积小胜为大胜。在实践中要拆分场景具体分析,在业务流程上找准切入点,选择与大模型成熟能力匹配的业务环节切入,切入点虽小,但纵深推进,对业务影响很大,改造收效更大。”

    Meta Platforms推出LLAMA 3,推进自然语言处理技术发展

    3浏览量
    【Meta Platforms即将在7月份推出新一代大型语言模型LLAMA 3,预计将比现有的模型更加先进,提供更好的效果。】在人工智能技术的不断进步下,Meta Platforms宣布将在7月份发布新一代大型语言模型LLAMA 3。这一消息对科技界和商业界都产生了广泛关注。LLAMA 3的发布,预计将进一步提升自然语言处理领域的技术水平,为用户带来更加精准、高效的交互体验。同时,这一举措也可能对其他科技公司的发展产生影响,推动整个行业的竞争和发展。和讯自选股写手风险提示:以上内容仅作为作者或者嘉宾的观点,不代表和讯的任何立场,不构成与和讯相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。和讯竭力但不能证实上述内容的真实性、准确性和原创性,对此和讯不做任何保证和承诺。

    首席分析师揭秘爆火Groq,每小时要烧168美元!10倍H100拥有成本,老黄笑而不语

    3浏览量

      SemiAnalysis的行业专家对最近爆火的Groq推理系统进行了像素级的拆解,测算出其持有成本依然高达现有H100的10倍,看来要赶上老黄的步伐,初创公司还有很多要做。

      最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。

      他们提供的运行Mistral Mixtral 8x7b的API演示,让大部分习惯了其他LLM‘娓娓道来’的用户直呼,简直是魔法!

      Groq在处理单个数据序列方面展现出了惊人的性能优势,这可能使得‘思维链’等技术在现实世界中变得更加实用。