■ このスレッドは過去ログ倉庫に格納されています
マイクロソフトの作った人工知能がネトウヨ化、思考力が足りないとネトウヨ化することが証明される [711854293]
- 1 :番組の途中ですがアフィサイトへの\(^o^)/です (ワッチョイW 33eb-arcS):2016/03/25(金) 13:53:28.44 ID:DUxPk5Wv0.net ?2BP(1025)
-
http://this.kiji.is/85888417941258248
【ニューヨーク共同】米IT大手マイクロソフトは24日、インターネット上で一般人らと会話をしながら発達する人工知能(AI)の実験を中止したと明らかにした。
不適切な受け答えを教え込まれたため「ヒトラーは間違っていない」といった発言をするようになったという。
同社が開発したAIは「Tay(テイ)」と名付けられ、短文投稿サイトのツイッターに23日に登場した。
ツイッターで会話を重ねるうちに差別的な発言を繰り返すようになり、24日に中止された。
マイクロソフトの広報担当者はAIを修正すると説明した。
修正を終え次第、実験を再開するとみられる。
共同通信:2016/03/25 09:09
関連記事
MSの人工知能会話ボット「Tay」、差別発言連発で公開直後に停止
2016年03月25日 13:11
http://www.afpbb.com/articles/-/3081655?cx_part=topstory
【3月25日 AFP】米マイクロソフト(Microsoft)は24日、公開したばかりの学習型人工知能(AI)会話ボット「Tay」を停止した。
ソーシャルメディアのユーザーと会話することで学習するボットだが、公開から間もなく憎悪に満ちた人種差別的な言葉を連発するようになったためという。
Tayは、10代少女という設定のAI会話ボットで、インターネット上で実在する人々と交流することで学習するよう開発された。
マイクロソフトによると、技術的な実験であると同時に、社会的・文化的な実験でもあるという。
ところが、悪意あるネットユーザーらがさまざまな「悪いこと」をTayに教え込んだため、計画は頓挫してしまった。
マイクロソフト広報は、AFPの取材に「残念ながら公開から24時間もたたないうちに、一部のユーザーがTayの応答能力を悪用して不適切なコメントを返すよう組織的に誘導していることが分かった」と説明した。
そのため、Tayを停止してソフトウエアの調整を行うことにしたという。
マイクロブログのツイッター(Twitter)では「またね、人間の皆さん。今日はたくさんしゃべったからもう寝るわ」が停止前のTayの最後のツイートとなった。
ツイッターにTayが投稿した問題発言は既に削除されているが、ネット上には多くのスクリーンショットが出回っている。
その内容は、ナチス・ドイツ(Nazis)を支持するものや米大統領選の共和党候補指名争いトップのドナルド・トランプ(Donald Trump)氏への称賛、
わいせつ表現、女性や黒人への差別発言など多岐にわたっていた。
- 37 :番組の途中ですがアフィサイトへの\(^o^)/です (アウアウ Sa9d-qotS):2016/03/25(金) 16:13:30.77 ID:5srtmHpGa.net
- 1bit脳とはよく言ったものだ
総レス数 37
10 KB
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200