当心自称为未来主义者和扎着马尾辫的中年男人。令人担忧的是,他们通常是同一个人。
也许我对无数冒名顶替者和自以为是的胡说八道者的电台采访感到很伤痕累累,而畅销书的标题也很抢眼,他们自信地预测了我们所知道的文明的终结。< /p>
他们总是错的,戏剧性和准确性之间往往存在反比关系.
虽然我知道我即将破坏我自己对未来主义者的批评,但本周我对我们的前进方向有两种相反的看法。最近从 Google 退休的人工智能先驱杰弗里·辛顿 (Geoffrey Hinton) 敲响了警钟,提醒他所创造的这项技术的危险性。
对于我们的未来,一个完全不同的一瞥来自一个既不是梦想家也不是阴谋家。墨尔本大学法学院的访问者、渥太华大学的 Colleen Flood 教授颠覆了我对事物运作方式的理解。
LoadingFlood 正在就快速发展的法律和监管挑战向加拿大人提供建议在他们的医院和诊所采用人工智能。她举的例子证实了谨慎使用机器学习的好处和潜在的时间和金钱节省。她还就可能出错的地方发出警报。
人工智能已被整合到渥太华急诊室的分诊流程中,该算法决定哪些测试和 X 射线与新患者最相关在为入院时具有相似症状的患者提供的治疗数据集上进行分析。
在外科手术中,AI 被实时用于分析手术室的音频和视频记录,以发出警报、最大限度地提高安全性并最大限度地减少不良事件的风险。
广告在心理健康领域、咨询记录以及患者的社交媒体帖子都会被扫描,以寻找表明自残、精神痛苦和自杀意念风险增加的语言模式。
现在,自动驾驶轮椅可以运输严重残疾的人。轮椅学会在复杂的路径上行驶并记住它们去过的地方——就像家里使用的机器人真空吸尘器一样。用户在简单的重复旅行中较少依赖护理人员,例如去老年或残疾护理的餐厅。
每周都会探索机器学习的新用途,澳大利亚肯定会紧随其后。
与这么多新用途一样技术,如果出现问题,会出现谁负责的复杂问题。还有一个伦理问题,即当机器安排测试或治疗时,患者是否提供了真正的同意。
Flood 解释了“算法偏差”如何导致患者护理错误。当支撑 AI 的大量数据集基于人口中的多数族裔而不考虑少数族裔时,就会发生这种情况。对于与群体的典型特征不同的人来说,这可能会导致做出不适当的决定,甚至是歧视。
还有其他雷区需要导航。是否需要单独的正式同意同意收集您的数据以开发算法?承诺始终以匿名方式进行数据耕种,并且对累积的健康数据进行去标识化处理以保护隐私。但人工智能现在已经足够复杂,可以从去识别化的数据中重新识别个人。可以积累如此多的细节,从而有可能从数百万组匿名信息中检索个人资料。
从定义上讲,数据耕作与隐私和患者机密之间存在紧张关系,违反这些信息可能会削弱信任
在教学层面,学习机构担心学生滥用 AI 作弊是正确的,但更大的挑战是如何培养学生——下一代工程师、建筑师、护士、医生和律师——在人工智能将发挥如此重要作用的社会和经济中工作。
作为一个社区,我们需要紧急解决新技术的监管问题,这些技术的开发和应用不会等到政府来处理它。
Loading我想起了 130 年前随着自行式无马马车的到来而发生的事情。每辆车都必须由一个拿着旗帜走在前面的人护送。道路规则、许可、登记和保险的发展花了数年时间,在此期间,人们就汽车这种又臭又吵的新奇威胁的内在危险展开了激烈的辩论。
我们不能重复1880 年代的犹豫——我们必须立即制定人工智能的道德使用规则。我们可以做得比让 AI 机器准备初稿更糟糕。
Opinion 时事通讯是一份每周总结的观点,这些观点将挑战、支持和告知您自己的观点。 在这里注册。
澳洲中文论坛热点
- 悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
- 据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
- 联邦政客们具有多少房产?
- 据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联