分节阅读 29(2 / 2)

就一个字:阮。

而在下面也有别的姓阮的人,全部都是姓名加公司的格式,就她例外。

阮思澄把手机反扣在桌子上,故作轻松:“对了,邵总,晚上慈善晚宴,您有打算拍下的吗”

“无所谓,都可以,反正总得拍点什么。”说到这里,邵君理微微一顿,抽出一本名册推到对方面前,“这是拍品目录名册。”

“哦。”阮思澄有点好奇,打开来一页页翻。

拍品不多,一共只有18样,然而每样都能说出不少门道。

其中一串宝石项链吸引住了她的目光。不太能戴出去,然而非常漂亮。看看简介,是喀什米尔蓝宝石的,主石足足有10克拉,水滴形状。描述上说,喀什米尔蓝宝石矿1887年便被开采殆尽并且停产,大的宝石非常难得。

不懂

快速看完,阮思澄把目录名册合上、还回。

邵君理淡淡地问:“有想要的吗。”

“”阮思澄说,“没有。”毫不犹豫。

“行。”

“那,邵总,我先走了,思恒医疗还有事情。”

“行。”

“拜拜。”

邵君理略一点头。

等阮思澄离开以后,邵君理将目录名册翻回到了项链那页,把图和文扫了一遍他注意到阮思澄在翻看时曾停留数秒。

除去这次,阮思澄、邵君理几乎没有闲聊。

新年跨年那天晚上,阮思澄给邵君理发祝福短信,说:祝扬清在新的一年蒸蒸日上,也祝您投资的思恒前程锦绣,让您赚到好多好多

邵君理回:已经赚了。

很多很多。

他指的并不是金钱。

医院病历开张以后,再谈合作就容易了。阮思澄用云京儿童医院、j省人民医院、云京大三院做例子吹牛逼,又拉来了一些合作,基本都是外省市中电子病历程度高的摩登医院。它们对it友好,却又没有被太多的公司“骚扰”过。

到二月时,陈一非带队将“急诊胸痛”部分全部做出来了。

一切都在计划当中。

资金还能再挺大约两个来月。他们需在一个月内完成测试、改bug、完善,同时阮思澄与投资公司接触,等产品一出来立即演示、融资。

就一个月可以融资,时间真的相当紧了。这说明,阮思澄要立即签tersheet投资条款清单,催人家做尽职调查,签投资交易文件。等拿到了过桥贷款,才可以松一大口气。

在测试时,阮思澄、陈一非、石屹立等人都非常紧张。

对于早早便完成的头部以及部分腹部,思恒医疗已经完成程序测试。他们将80的患者病历用于训练多层神经网络,20的患者病历用于测试最终的准确率,都没问题。

现在,思恒医疗需要做的,就是测试刚做好的胸部还有剩余腹部,以及综合起来的全部腹部。

而这些恰恰是整个项目当中最困难的部分,说不担心绝对是在撒谎扯淡。

但阮思澄也并不算特别害怕陈一非的方向、框架没有问题,邵君理都说了,非常清楚干净。

他们将胸痛患者的心电图、ckb、肌钙蛋白等等信息输入软件,又把许多急性腹痛患者的检查数据、ct片子、b超视频也输入进去,屏住呼吸,拿到ai给他们的诊断结果,急急忙忙地与患者病历上的“标准答案”比对。

结果如同晴天中的一道霹雳,扇了思恒医疗每个人一耳光。

甚至打得他们耳朵里面嗡嗡直响。

不准。

而且,完、全、不、准,诊断的正确率大约只有一半。

他们用看救命稻草般的眼神看急诊医生cso石屹立,石屹立一一复查,神情同样痛苦,表示,对于有分歧的患者,病历上面三甲医生给的诊断是正确的,而ai给的诊断,是错误的。

第32章裁员三

对于ai来说,让结果从“不准”到“准”,不是十分容易,与传统的“找bug修bug”模式全然不同。

目前在对ai的争论当中,一个常常被提起的问题就是“算法黑箱”。也就是说,人类不能解释它的工作原理。

人工智能的核心是“神经网络”。科学家们模仿人类神经系统,让机器进行学习。“神经元”们一层一层分布下来,每个单元都能接收部分数据,再将结果向上传给其他单元。

还是用“猫”来打比方,第一层可以将图片切割、降维,得到许多小图,第二层在每个维度利用色差寻找边缘,三四五层根据勾勒出的边缘确定各个器官形状,六七八层通过各个部分颜色判断毛色、花纹,瞳色最后顶层得出答案:这是猫、狗、兔子、其他。

2006年多层神经网络出现以前,机器学习都只处于初级阶段,需要人工提取特征。而2006年后,它进入到“深度学习”的大时代。人类不监督、半监督,机器自己分析特征、独立思考。给一万张猫的图片,说“这都是猫”,它就懂了,再给一张它没见过的,问“是不是猫”,它会说是。人们给它正确答案的数据集,它便可以进行学习,“看”的越多会的越多,不断优化自身能力。因此,“人工智能”定义十分清晰,区别是真人工智能还是噱头只需要看它有没有模仿人脑。

然而,对每一层都在提取什么特征,以及机器为何要做这些事情、为什么能得出结论,人类无法解释。根据输出,有些提取简单易懂,比如勾勒边缘、模糊图片、突出重点、锐化图片可是,在很多时候,人类完全get不到看着某层下来以后图片所变成的样子,只能叫一声“什么鬼”有时人类只能提出几个特征,ai分出好几百层

它给了人空前的可能,也给了人无尽的困惑。

就像人类无法摸清大脑的工作原理一样,他们同样无法摸清ai的工作原理。

训练ai这种方式为何能行它是如何学的信息存在哪里为何下此判断不知道。

它好像在玄幻境界。码工时常觉得自己正在养蛊,贼刺激,给蛊虫喂个这个、喂个那个,一掀盖子,嚯,出来一个超厉害的东东

有人说,让ai向人解释一个东西,相当于让人向狗解释一个东西,听着sosad。

人类历史充分表明,只有一个决策可以解释、分析,人才可以了解它的优点缺陷,评估风险,知道它在多大程度能被信赖。

很多专家说过“必须质疑人工智能为何做出一个决定”“难道,无人汽车每回出事,企业都说不知原因、ai让它这么干的”

何况,不幸的是,如同大脑会出错,ai也会出错。

于是问题来了:我们能信任ai吗我们能在多大程度上相信ai我们能在生死攸关时信任ai吗

当然,也有学者表示:“它能做到就足够了”“大脑一直为你工作,你也一直都信任它,即使并不知道它是如何工作的。”

目前,各国科学家正致力解开黑箱,政府、行业协会也对此有要求,已经取得一些成果不少东西都是数学。

阮思澄是一直觉得,这种现象十分正常,没有那么邪乎。在人类的文明当中,往往实践先于理论。比如,老祖宗在打造刀剑时、发明火药时,清楚地知道原理吗no都是东西先出来了,能work了,大家才开始研究原因。

ai也是啊慢慢来嘛。

不过,虽然如此,攻城狮们写程序时,也能根据他人经验,知道大概该怎么做。ai能自己学,但是,攻城狮们需要设置许多参数,比如用哪一种激活函数;如何搭建网络结构;分别设置多少卷积层、池化层、全连接层,如何排列架构;用多少个卷积层;用哪一个池化方式;选择多大以及多少卷积核、多大卷积步长和池化步长、多大学习率,又分别从哪层开始、到哪层结束注。也因为没道理可讲,各种奇奇怪怪的结构都有了。层数绝非越多越好,层数越多,说明运行时间越长、传递错误几率越大。

出于这个原因,对算法的调整、修改,经常就是瞎jb试,比较最终结果。

调参数能有效还好,数据也有可能不行要知道,

gu903();