英国(guó)《新科学家》周(zhōu)刊网站8月7日文章,原题:人(rén)工智能聊天(tiān)机器人能否受到“说真话(huà)”法(fǎ)律义务的约束人(rén)们(men)能要求人工智能讲真(zhēn)话吗?或许不能,但(dàn)一个(gè)伦理学家团队表示,从(cóng)法(fǎ)律上来说,人工智能(néng)开发(fā)商应该(gāi)承担(dān)减少犯错(cuò)风(fēng)险的责任。“我(wǒ)们(men)只是在尝试创建(jiàn)一种激励构架,让公司(sī)在创(chuàng)建(大语言模型)系统时更重视真实性(xìng)或(huò)准确(què)性,”牛津大学伦理学家(jiā)布伦特·米特尔施塔特说。
基(jī)于对大量文本的统计分析,大(dà)语(yǔ)言模型聊天机器人,例(lì)如ChatGPT能对用户提出的问题生(shēng)成类(lèi)似人类的(de)回(huí)答。然(rán)而(ér),尽(jìn)管它们的(de)答案通常看起来令人信服(fú),但也容易(yì)出错,这(zhè)是一种被称为“幻觉”的缺陷。米(mǐ)特尔施塔(tǎ)特说:“我(wǒ)们拥有这(zhè)些极其令人(rén)印象深刻的生成式人工智能系统,但它们也会频繁出错(cuò),从(cóng)我们(men)对(duì)这种系统(tǒng)基本机能(néng)的了解来看,没有根本的解(jiě)决方法(fǎ)。”
米特尔施塔特表示,对(duì)大语言模(mó)型系统(tǒng)来说,这是一个(gè)重大(dà)问题,因为它们正在被应用于政(zhèng)府决策,在(zài)这种情况下,它们诚(chéng)实地承认自己的知识(shí)局限性就变得至关重要。为解决这个问题,他们(men)提出一系列(liè)应对措施:当被问(wèn)及(jí)与事实有关的问题时,人工智能应该像(xiàng)人(rén)一样。这意味着它(tā)们要(yào)诚实(shí),秉持“知之为知之,不知为不知,是(shì)知也”的态度。“要(yào)点在(zài)于采(cǎi)取必(bì)要步骤,让(ràng)它们真正做到谨(jǐn)言(yán)慎行,”米特尔施(shī)塔特(tè)说,“如果对某件(jiàn)事(shì)不确定,它们不要(yào)只是为了让人们信(xìn)服而编造(zào)一(yī)些东西。相反,它们应该说,‘嘿,你知道吗(ma)?我不知道(dào)。让我来研究一(yī)下。我(wǒ)会回复你的。’”
这似乎是一个值得称赞的(de)目标,但在英国德蒙福特大(dà)学网(wǎng)络安全教授伊尔克·鲍伊腾看来(lái),伦理学(xué)家(jiā)提出的这些要求在(zài)技术上未(wèi)必(bì)可(kě)行。开发商正(zhèng)尝试让人工智(zhì)能实事求是(shì),但到目(mù)前为止,事实证明这是一项极其(qí)“劳动(dòng)密集型”的任务(wù),甚至不切实际。“我不明白,他们(men)怎么期(qī)望法律要(yào)求强制执行这(zhè)种命令,我(wǒ)认(rèn)为这在技术上根本行不通,”鲍伊腾说。
为此(cǐ),米特尔施塔(tǎ)特及其同事们提(tí)出一些更直接的措施,可能使人工(gōng)智(zhì)能更“诚实”。他说(shuō),这(zhè)些模(mó)型应(yīng)该列出答案的信息源,目前许(xǔ)多模(mó)型都在这样做以证明(míng)它们给(gěi)出答(dá)案的可信度,此外(wài),更广泛地使(shǐ)用一种被称为“检索(suǒ)增强”的技术来(lái)给出答案(àn),也可能限制这些模型产(chǎn)生“幻觉”的可能性。他还认为,应该缩减在(zài)政府决(jué)策等高风(fēng)险领域部(bù)署(shǔ)人工智能的(de)规模,或(huò)者应该限制模型可利用的信息(xī)源。“如果我们有(yǒu)一(yī)个仅在医学中使用的语言模型,我们就应该限制(zhì)它,让(ràng)它只能在高(gāo)质量医学期刊上(shàng)搜索学术文章。”
米特(tè)尔施塔特(tè)声称,改变观念也很重要,“如果(guǒ)我们能摆脱所谓(大语言模型)善于回答事实性问题、或者它们(men)至(zhì)少会给(gěi)你(nǐ)一(yī)个(gè)可靠答(dá)案的想法(fǎ),而是认为它们有助(zhù)于为你提供(gòng)更(gèng)多相关的信(xìn)息,那(nà)就太好了。”
但(dàn)荷兰(lán)乌得勒支大学法(fǎ)学院副(fù)教授卡塔琳(lín)娜·戈安塔表(biǎo)示,这些研究人员(yuán)过于(yú)关注技术,因此对(duì)公共(gòng)话语(yǔ)中长(zhǎng)期存在的谎(huǎng)言问题关注不够。“在(zài)这种背景下,仅将矛头指向大语言模(mó)型会制造一种假象,即人类非常勤奋细致,永远不会犯(fàn)此类错误。问问你遇(yù)到的(de)任(rèn)何(hé)法官,他们都(dōu)遇到过律(lǜ)师玩忽(hū)职守的可怕经历,反之亦然——这(zhè)并非一个机器的问(wèn)题。”(作者克里斯·斯托克尔-沃克,王会聪(cōng)译)