您当前位置:群基首页 >> 专业技术文章 >> 群基火花机|电火花机|放电机
群基火花机|电火花机|放电机
自从1954年第一个可以用程式控制的数位机器人诞生以来,人们一直认为机器人技术的发展太慢,但最近大家却又觉得认为它发展太快了,除了怕被抢走工作之外,不少人甚至会担心好莱坞电影情节将会成真,有朝一日机器人会背叛人类,掌控世界。
英国经济学人最近在专题报导中,特别针对这点指出,关于人工智慧,我们目前最该担心的问题其实都被忽略了。
报导指出以深度学习为基础的脸部辨识技术,让监控系统变得非常强大。以Google的FaceNet为例,它可以辨识两张照片中是否有同样一个人出现,准确率高达99.6%。
脸书的DeepFace也不相上下。脸书的app Moments可以自动收集同样一个人在网路上的不同照片,这个功能在欧洲推出后,便因触犯爱尔兰隐私法而被强制取下。
俄罗斯的一个叫Findface的app也掀起不少争议。它让使用者拍陌生人的照片,然后到社交媒体比对,找出对方的身份。这个app的开发者说他们的用意只是要让大家能找到在街上或酒吧邂逅的人,但是俄罗斯警方已经开始利用它来抓嫌犯或找目击者。
这种技术带来的威胁显而易见:今后你我随时都会被认出身份,几乎无所遁逃。假设你去参加游行,从远方拍摄的高画素群众照片只要一放大,每个参加者的身份永远都可以被追查。
也就是说深度学习的时代,只要出现在公共场合,势必会留下记录,除非你带面罩。难怪有一家日本公司已经开始卖起隐私眼罩,专门用来防备脸部辨识系统。
另外中国也正在分析民众在社交媒体的照片,评估谁可能是异议人士。中国百度以及腾讯的Bestimage的辨识准确度甚至比Google和脸书更高,分别是99.77%和99.65%,为全球辨识技术排名的前两名。
连在美国加州Fresno郡,警方也正在测试一种叫Beware的系统。它可以根据警方档案、房产记录、社交媒体贴文分析某个嫌犯的危险程度。另一个叫做COMPAS的系统,则号称可以评估嫌犯再犯的机率。这种系统显然挑战了正当的法律程序这种基本的法律观念。
深度学习机器另一个令人忧心的地方是,当愈来愈多企业使用它,就有些族群会不小心受到歧视。最尴尬的例子是2015年Google的照片app曾经把一名黑人和他的朋友全都自动标示为大猩猩。COMPAS也被批评对黑人有歧视。
专门用人工智慧开发企业运用软体的MetaMind创办人索区尔表示:没有人会想设计出有歧视的系统,但是如果你用差劲的数据去训练机器,它就会做出差劲的预测;终究人工智慧不会只是智能的问题,我们也要好好思考它牵涉到的道德议题。