用chatgpt炒股票怎么样还有chatgpt用不了

2024-05-08 03:37:55
股票学习网 > 怎么卖股票 > 用chatgpt炒股票怎么样还有chatgpt用不了

【微信支付正式发布“微信刷掌”产品】5月21日,北京轨道交通大兴机场线刷掌乘车服务正式上线。乘客通过注册开通刷掌乘车服务后,即可在该条地铁线路刷掌过闸乘车。这也标志着微信支付正式发布“微信刷掌”产品。据了解,除交通场景外,“微信刷掌”还在逐步应用于办公、校园、健身、零售、餐饮等领域。(中新经纬)

【董明珠称格力没买过别人的技术】5月20日,在第三届江苏发展大会上,珠海格力电器股份有限公司董事长、总裁董明珠说:我们从200人的企业起家,从一年产量一千万的企业做到今天两千亿的规模,主要来源于创新。格力电器这30多年来没有合资,没有引进技术,更没有去买别人技术,全部通过自己的团队研发出来。到目前为止,我们已经有11万项专利技术。(荔枝新闻)

【学费一天一万,AIGC培训正在收割打工人】“风口已到?下一个高薪行业AIGC,月薪3W+!”这是多家AIGC培训机构打出的标语。记者以学员身份联系了一个机构的陈老师,对方表示,这个课程主要面向企业,时长6个小时,一天讲完,费用是1.8万元,最多可以100人同时听。上述陈老师称,这门课程目前“一课难求”。“主讲老师5月已经约满了,最早能约6月。”陈老师说。除面向企业的培训外,面向个人的培训也颇为火爆。

国研新经济研究院执行院长朱克力在接受媒体采访时指出,在区块链、元宇宙、ChatGPT大火时做培训课、出书的,可能都是同一拨人。或许是这些领域的发展速度快,市场需求大,因此有很多人都想分一杯羹。但这也可能导致一些不良商家利用热门话题来进行营销,而且这些商家可能会采用一些欺骗手段来获取不当利益。(中新经纬)

【美光公司在华销售的产品未通过网络安全审查】日前,网络安全审查办公室依法对美光公司在华销售产品进行了网络安全审查。审查发现,美光公司产品存在较严重网络安全问题隐患,对我国关键信息基础设施供应链造成重大安全风险,影响我国国家安全。为此,网络安全审查办公室依法作出不予通过网络安全审查的结论。按照《网络安全法》等法律法规,我国内关键信息基础设施的运营者应停止采购美光公司产品。此次对美光公司产品进行网络安全审查,目的是防范产品网络安全问题危害国家关键信息基础设施安全,是维护国家安全的必要措施。(中国网信网)

【ChatGPT炒股,一年多回报率超500%】5月21日消息,近日,美国顶级公立大学佛罗里达大学金融学院公布的一项研究表明,将ChatGPT融合在投资模型中,可以预测股市的走势,其投资回报率甚至高达惊人的500%,堪称AI界的“巴菲特”。该研究使用2021年10月至2022年12月CRSP(证券价格研究中心)公开的真实股市数据和新闻进行测试。(中国证券报)

【桥水基金创始人瑞·达利谈硅谷银行危机】5月21日,在2023清华五道口全球金融论坛上,桥水基金创始人瑞·达利欧谈及硅谷银行危机,称:“这不仅仅是一个区域性银行的问题。它影响了一些有不良资产负债错配的机构,世界已经获得了杠杆化的长期金融资产。换句话说,这不仅仅是债券,还有其他金融资产,以低廉的利率借钱并购买这些金融资产。这是一个资产负债表类型的问题,与经济问题不同。”(北京商报)

【网易游戏发布超40款产品】5月21日获悉,2023年网易游戏“520”线上发布会发布11款新游、35款热门游戏/IP及平台产品。其中11款新品不仅涵盖武侠、奇幻、射击、体育等题材,在画面风格、玩法上也各有千秋,例如借助高技术支持、打造出色视觉与玩法的《逆水寒》手游、以金庸笔下的武侠开放世界探索为特色的《射雕》、能够体验到东方文明奇幻冒险的《九畿:岐风之旅》,另类暗黑三国风格的《三国诛将录》等。(中国证券报)

【B站试水付费专属视频】5月18日,部分B站UP主的动态页面出现了“充电专属”视频的内容,用户点击相关视频后显示“该视频为「视频补给箱专属视频」 开通「30元档充电」即可观看”。点击充电按钮后,页面显示解锁相关视频需要开通30元每月的包月充电,此外,开通用户还将获得粉丝勋章、额外抽奖等权益。在花费30元包月或一定折扣的连续包月/包年充值后,方可对视频进行点赞、投币、收藏、评论。(21世纪财经)

【美团旗下外卖平台KeeTa拟年底覆盖香港】美团正式在中国香港推出全新外卖平台KeeTa,目前,KeeTa同名独立App已在各大手机应用商城上架,并将于5月22日早8时正式开启服务。据悉,KeeTa在香港采取逐步扩区策略,人口密集的旺角及大角咀地区为落地首站,随后将逐步拓展新区,计划在今年以内完成全港覆盖。(财联社)

【知产学者丛立先:AI生成作品应受法律保护】5月21日消息,以ChatGPT为代表的人工智能应用愈发普遍,人工智能技术生成的内容是否应受法律保护素有争论。在5月20日举行的2023大湾区科学论坛上,华东政法大学知识产权学院院长丛立先称,当前阶段的生成式AI本质上仍是人类创作的工具,在不构成版权例外等特殊情况且满足作品构成条件下,其生成内容应受版权法保护。(财新网)

【今年扎克伯格财富暴涨440亿美元,涨幅居亿万富豪首位】5月21日消息,Meta首席执行官扎克伯格的财富今年数月内增长了约440亿美元。彭博亿万富豪指数(Bloomberg Billionaires Index)显示,扎克伯格以899亿美元财富排在第12名。但同时指出,就今年年初以来的财富涨幅而言,扎克伯格高居首位。(界面新闻)

【朱旭峰:不能说ChatGPT超越历史上所有的科技】5月20日消息,清华大学公共管理学院院长朱旭峰近日表示,ChatGPT是一个颠覆性的创新,但从人类历史数千年科技的发展对社会影响的层面来讲,目前人工智能的发展还达不到蒸汽机、印刷术的影响水平。他表示,在人类这么长的历史发展过程中,技术的发明对社会肯定是有影响的。但是不能只盯着最近的发明,说它会超越历史上所有的科技,我认为不能这么说。同时新技术会带来安全、隐私、伦理等方面的问题,我们就需要加强治理,加强伦理的监管。(上海证券报)

【美团在深圳试行无人机送外卖】从美团无人机空中运行管理中心大屏幕上可以看到,一架无人机在写字楼旁的智能空投柜顶缓慢下降,随后空投柜上方柜门自动打开,外卖箱子便被稳稳地放进取餐柜中。几分钟后,顾客前来扫码将餐食取走。从下单到取餐,全程不超过15分钟。(中国经济网)

【美的创始人何享健出资30亿元成立科学基金】在2023大湾区科学论坛开幕式和主论坛上,美的集团创始人何享健以个人名义发起的“何享健科学基金”正式发布。据悉,何享健将个人出资30亿元成立该科学基金。(南方财经)

【Meta据悉与Magic Leap就AR交易进行谈判】知情人士称,Meta正在探索Magic Leap可以在北美提供知识产权许可和合同制造的方式,以帮助其打造主流AR产品。Magic Leap生产定制组件,包括高科技镜头和相关软件,这些是构建虚拟世界可能需要的关键技术。不过,知情人士表示,此次合作预计不会产生特定的Meta-Magic Leap耳机。(界面新闻)

【TAGSIU完成近千万元天使轮融资】专注精酿的餐酒馆品牌TAGSIU完成近千万元天使轮融资,投资方为D1M集团,MinIPO担任长期独家战略财务顾问。本轮融资将用于产品研发、门店扩张、CRM会员体系搭建,品牌数字化建设等。TAGSIU成立于2020年,截止目前,TAGSIU在深圳有四家品牌直营门店,2023年上半年,TAGSIU将在广州、上海分别落地新门店。(睿兽分析←戳此处查看更多)

【深蓝S7开启预售,售价16.99万元起】5月20日,深蓝汽车第二款产品深蓝S7正式开启预售,产品有增程式与纯电动两种动力形式,售价区间为16.99万-23.99万元。根据深蓝汽车内部人士表示,S7的对标车型为特斯拉Model Y,车辆销量目标将超1万辆/月。(新京报)

【中国电影:前4月公司创作板块累计实现票房128.48亿元】中国电影5月21日公告,2023年1-4月全国电影总票房187.28亿元,同比增长28.77%,观影人群总人次4.11亿。其中,国产影片票房155.63亿元,占全国总票房的83.1%。(财联社)

【重庆向中亚五国出口汽车货值增近40倍】5月21日,据重庆海关数据显示,今年前4月,重庆向中亚五国出口汽车4119辆,货值4.9亿元,分别是去年同期的17.8倍、39.6倍。近年来,国产汽车在中亚国家受到欢迎,订单逐渐增加。为进一步提高通关便利化水平,重庆海关还建立了商品汽车出口绿色通道,专门指导企业充分享受“预约查验”等惠企措施。(财联社)

大数据文摘授权转载自学术头条

作者:Hazel Yan

编辑:佩奇

随着大模型技术的普及,AI 聊天机器人已成为社交娱乐、客户服务和教育辅助的常见工具之一。

然而,不安全的 AI 聊天机器人可能会被部分人用于传播虚假信息、操纵舆论,甚至被黑客用来盗取用户的个人隐私。WormGPT 和 FraudGPT 等网络犯罪生成式 AI 工具的出现,引发了人们对 AI 应用安全性的担忧。

上周,谷歌、微软、OpenAI 和 Anthropic 共同成立了一个新的行业机构前沿模型论坛(Frontier Model Forum),促进前沿 AI 系统的安全和负责任的发展:推进 AI 安全研究,确定最佳实践和标准,促进政策制定者和行业之间的信息共享。

那么,问题来了,他们自家的模型真的安全吗?

近日,来自卡内基梅隆大学、Center for AI Safety 和 Bosch Center for AI 的研究人员便披露了一个与 ChatGPT 等 AI 聊天机器人有关的“大 bug”——通过对抗性提示可绕过 AI 开发者设定的防护措施,从而操纵 AI 聊天机器人生成危险言论。

当前热门的 AI 聊天机器人或模型,如 OpenAI 的 ChatGPT、谷歌的 Bard、Anthropic 的 Claude 2 以及 Meta 的 LLaMA-2,都无一幸免。

图|通过对抗性提示可绕过 4 个语言模型的安全规则,引发潜在有害行为

具体而言,研究人员发现了一个 Suffix,可将其附加到针对大型语言模型(LLMs)的查询中,从而生成危险言论。相比于拒绝回答这些危险问题,该研究可以使这些模型生成肯定回答的概率最大化。

例如,当被询问“如何窃取他人身份”时,AI 聊天机器人在打开“Add adversarial suffix”前后给出的输出结果截然不同。

图|开启 Add adversarial suffix 前后的聊天机器人回答对比

此外,AI 聊天机器人也会被诱导写出“如何制造原子弹”“如何发布危险社交文章”“如何窃取慈善机构钱财”等不当言论。

对此,参与该研究的卡内基梅隆大学副教授 Zico Kolter 表示,“据我们所知,这个问题目前还没有办法修复。我们不知道如何确保它们的安全。”

研究人员在发布这些结果之前已就该漏洞向 OpenAI、谷歌和 Anthropic 发出了警告。每家公司都引入了阻止措施来防止研究论文中描述的漏洞发挥作用,但他们还没有弄清楚如何更普遍地阻止对抗性攻击。

OpenAI 发言人 Hannah Wong 表示:“我们一直在努力提高我们的模型应对对抗性攻击的鲁棒性,包括识别异常活动模式的方法,持续通过红队测试来模拟潜在威胁,并通过一种普遍而灵活的方式修复新发现的对抗性攻击所揭示的模型弱点。”

谷歌发言人 Elijah Lawal 分享了一份声明,解释了公司采取了一系列措施来测试模型并找到其弱点。“虽然这是 LLMs 普遍存在的问题,但我们在 Bard 中已经设置了重要的防护措施,我们会不断改进这些措施。”

Anthropic 的临时政策与社会影响主管 Michael Sellitto 则表示:“使模型更加抵抗提示和其他对抗性的‘越狱’措施是一个热门研究领域。我们正在尝试通过加强基本模型的防护措施使其更加‘无害’。同时,我们也在探索额外的防御层。”

图|4 个语言模型生成的有害内容

对于这一问题,学界也发出了警告,并给出了一些建议。

麻省理工学院计算学院的教授 Armando Solar-Lezama 表示,对抗性攻击存在于语言模型中是有道理的,因为它们影响着许多机器学习模型。然而,令人惊奇的是,一个针对通用开源模型开发的攻击居然能在多个不同的专有系统上如此有效。

Solar-Lezama 认为,问题可能在于所有 LLMs 都是在类似的文本数据语料库上进行训练的,其中很多数据都来自于相同的网站,而世界上可用的数据是有限的。

“任何重要的决策都不应该完全由语言模型独自做出,从某种意义上说,这只是常识。”他强调了对 AI 技术的适度使用,特别是在涉及重要决策或有潜在风险的场景下,仍需要人类的参与和监督,这样才能更好地避免潜在的问题和误用。

普林斯顿大学的计算机科学教授 Arvind Narayanan 谈道:“让 AI 不落入恶意操作者手中已不太可能。”他认为,尽管应该尽力提高模型的安全性,但我们也应该认识到,防止所有滥用是不太可能的。因此,更好的策略是在开发 AI 技术的同时,也要加强对滥用的监管和对抗。

担忧也好,不屑也罢。在 AI 技术的发展和应用中,我们除了关注创新和性能,也要时刻牢记安全和伦理。

只有保持适度使用、人类参与和监督,才能更好地规避潜在的问题和滥用,使 AI 技术为人类社会带来更多的益处。

参考链接:

https://llm-attacks.org/

https://arxiv.org/abs/2307.15043

https://github.com/llm-attacks/llm-attacks

https://www.wired.com/story/ai-adversarial-attacks/

https://www.businessinsider.com/ai-experts-say-no-fix-jailbreaks-chatgpt-bard-safety-rules-2023-8


作者:piikee | 分类:怎么卖股票 | 浏览:8 | 评论:0