Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
Subscribe
No Result
View All Result
Dataconomy CN
No Result
View All Result

Openai以4,300万美元的deepfake Bet进入网络安全

Kerem GülenbyKerem Gülen
4 4 月, 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Openai在其首次网络安全投资中共同领导了4,300万美元的A系列A资金,用于适应性安全,这是一家专门捍卫AI驱动的DeepFake攻击的初创公司。

通过生成的AI增强了黑客的能力,包括创建令人信服的深击和伪造文件的能力,Openai直接通过支持AI驱动的防御机制来直接解决不断上升的威胁。

自适应安全性,在纽约成立, 安全 由Openai的创业基金和Andreessen Horowitz共同领导的A轮循环中的4,300万美元。 Openai证实了这项投资标志着其最初进入网络安全行业的投资。

自适应安全利用模拟的AI生成的骇客来培训员工识别和减轻这些先进的威胁。该平台模拟各种渠道的攻击,包括电话,文本和电子邮件,以评估漏洞和培训人员。

该公司专注于针对人类脆弱性的社会工程策略,在这些策略中,员工可能会遭受损害安全性。首席执行官兼联合创始人布莱恩·朗(Brian Long)指出,使用AI工具执行社会工程攻击的便利性越来越轻松。


Gutenberg领导美国网络安全公司Sequretek的市场扩展


Adaptive Security于2023年推出,为100多个客户提供服务,积极的反馈在吸引Openai的投资中发挥了作用。 Axie Infinity在2022年因操纵工作提供的6亿美元亏损表明了此类攻击造成的潜在损失。

Long先前的企业包括Tapcommerce,Twitter于2014年以超过1亿美元的价格收购。他还创立了Ad-Tech公司的专家,其一位投资者在2021年价值超过100亿美元。

自适应安全打算将新资金分配给雇用工程师并推进其产品开发以应对AI威胁。其他网络初创公司也正在解决包括Cyber​​haven在内的AI威胁,最近 长大 1亿美元以防止敏感数据泄漏到诸如Chatgpt和Snyk之类的工具中,Snyk的需求增加了,因为AI生成的代码不安全。

关于个人安全,朗建议个人关于语音克隆的人“删除您的语音邮件”。


特色图像信用

Tags: Openai深击网络安全自适应安全性

Related Posts

Alphaevolve:Google的新AI如何以自我纠正为目标

Alphaevolve:Google的新AI如何以自我纠正为目标

15 5 月, 2025
Tiktok正在实施AI生成的ALT文本,以提高可获得性

Tiktok正在实施AI生成的ALT文本,以提高可获得性

15 5 月, 2025
特朗普迫使苹果重新考虑其印度iPhone策略

特朗普迫使苹果重新考虑其印度iPhone策略

15 5 月, 2025
YouTube的AI现在知道您何时要购买

YouTube的AI现在知道您何时要购买

15 5 月, 2025
SoundCloud首席执行官承认AI术语还不够清楚,因此新承诺

SoundCloud首席执行官承认AI术语还不够清楚,因此新承诺

15 5 月, 2025
准备好一个真正认识你的chatgpt了吗?

准备好一个真正认识你的chatgpt了吗?

14 5 月, 2025
Please login to join discussion

Recent Posts

  • 智能面料对战术服装性能的影响
  • Databricks在无服务的Postgres上赌注,其10亿美元的霓虹灯收购
  • Alphaevolve:Google的新AI如何以自我纠正为目标
  • Tiktok正在实施AI生成的ALT文本,以提高可获得性
  • 特朗普迫使苹果重新考虑其印度iPhone策略

Recent Comments

您尚未收到任何评论。
Dataconomy CN

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.