【很高兴与您见面。】
【下面请您为我命名。
【请您输入我的名字人工智慧居然要命名,这有些出乎周宇的意料。
他脑海里面突然闪过了一个词。
苔蘚。
苔蘚小小的,多可爱。
不过叫苔蘚太过於正式了。
还是加个字吧。
周宇的手指轻轻敲击著键盘,在那道横线上缓缓输入了三个字。
【您的命名已確认,主人,我是小苔蘚(v)】
周宇揉了揉眼睛,发现自己没有眼。
他的人工智慧,確实发了个顏文字!
“你还会发表情。”周宇尝试对著话筒说了一句话。
【当然会,小苔蘚不是人工智障,当然会发啦!】
【只有人工智障才不会。】
小苔蘚比他想像中要聪明,看来升级到中级的选择確实没错。
但小苔蘚会拉踩同行,这样不好啊。
人工智慧的三观,还是要纠正一下比较好。
ai若缺乏伦理框架,会放大数据中的社会偏见,导致系统性歧视。
要知道数据是人工智慧的基础“燃料”,而现实世界中的数据往往不可避免地包含著各种社会偏见。
这些偏见可能源於歷史上的不平等、文化差异、刻板印象等。
例如,在招聘领域,如果用於训练人工智慧算法的数据中存在对某些性別、种族或地域的固有偏见。
那么基於这些数据训练出来的ai系统在筛选简歷时,就可能会不自觉地对特定群体產生歧视,
导致不公平的招聘结果。
比如年龄歧视,学歷歧视,ai很容易会把特定的人群给筛选出去。
更可怕的是,如果没有严格的伦理规范来约束数据的收集、使用和共享,那么这些个人信息就有可能被滥用。
一些ai应用可能会在用户不知情的情况下收集他们的敏感信息,如位置信息、消费习惯等,並將这些信息用於商业目的或其他不当用途。
人类为什么一直恐惧ai,其实很大一方面就是因为ai在没有经过完全训练的情况下,不懂得什么是正確与否。
就跟人恐惧毒蛇一样,因为你不知道它们在想什么。
它们可能会在没有人类干预的情况下做出错误的决策,导致无辜人员的伤亡,在网络空间中,
恶意攻击者可以利用ai技术发动更复杂、更隱蔽的网络攻击,对关键基础设施和社会秩序造成严重破坏。
科幻电影里面,ai毁灭人类大多数都是基於这种情况。
所以,小苔蘚比想像中的要聪明,让周宇既惊喜又担忧。
他现在得先让小苔蘚学习正常的人类三观,再谈其他的。
周宇就像个老父亲一样,在网络上找了不少幼儿学习的教材,统统餵给了小苔蘚。
小苔蘚开始“学习”这些幼儿学习教材,它的运算速度极快,几乎是在瞬间就吸收了教材中的大量信息。