翻訳元:https://www.reddit.com/r/japan/comments/1e60h8g/japans_media_giants_demand_ai_accuracy_shocking/
【海外の反応】aiの正確性に対する懸念が浮き彫りに👀💡
海外のサイトで日本の大手メディア企業が AI の精度を求める: 衝撃的な新ルールが明らかにが話題になっていたので、海外の人々の反応を翻訳してご紹介します。
海外のスレ主のタイトルと詳細
日本の大手メディア企業が AI の精度を求める: 衝撃的な新ルールが明らかに
このスレッドを見た海外のスレ民の反応
AI の精度などというものはありません。 彼らは、オンラインの合法的な情報と違法な情報の両方について訓練を受けています。
これはトレーニング データの正当性とは何の関係もありません。 RAGについてです。言語モデルと記事の相互作用。たとえば、AI ツールに記事の要約を依頼すると、うまく機能する場合もあれば、そうでない場合もあります。それらのニュースメディア企業は、それが常に100%正しいことを要求します。それはちょっと面白いです。なぜなら、ニュースメディアでは、あるジャーナリストが別の出版物から記事を単純に取り出して、書き直して出版するのがまったく普通のことであり、それを入手しなければならないという法律はないからです。毎回100%正解です。
それが難問です。 LLM は、使用する単語について固有の考えを持ちません。それが正しいかどうかを判断できないように設計されています。
どのような規制であっても、情報ロンダリング業界にとって衝撃的なものであることは間違いありません。
コメント欄の人は記事を読んでいないような気がします(いつものことですが)
日本の報道業界は、AI企業は自社の素材を使用する許可を得て、それが正しいことを確認する必要があると述べている
これは ChatGPT やその他のサービスをより便利にしようとすることではなく、それらがトレーニングできる (または盗むことができる) コンテンツを制限することです。
検証済みのニュースソースから取得することが許可されておらず、評判の低いサイトから取得する必要がある場合、AI が不正確になることがわかります。
「AI企業は報道機関に適切な同意を求めなければならない」ということと、「報道機関はAI企業のみの利益のために自社のコンテンツをAI企業に提供しなければならない」ということの間には、大きな違いがある。
あなたが完全に正しいとは思えません。問題は、LLM がトレーニングに記事を使用することではなく、LLM が RAG サービスを通じてコンテンツを要約することです。
さらに精度が低くなりますか?うーん…
これは ChatGPT やその他のサービスをより便利にしようとすることではなく、それらがトレーニングできる (または盗むことができる) コンテンツを制限することです。
良い!私はそれを全面的に支持します。一般人が支払うのと同じように、安っぽい人たちにもデータ料金を支払わせましょう。
日本はここでAI規制にいち早く取り組んでいる国の1つだが、これは世界全体にとってひどいニュースだ。なぜなら日本は政府の行動に関していつも遅く、今回もその記録を破っていないからだ。
ええ、ええ、日本だと何もかもが「衝撃的」だということはわかっています…。
おそらく、記者クラブほど民主主義に対する脅威はないでしょう。
では、RAG サービスをすべて禁止することなく、ChatGPT のような LLM が正確な情報を提供できるようにするためには、一体どうすればよいのでしょうか?
日本は理解できない型破りなものを禁止する傾向があるので、80歳の愚かな政治家がそれを提案するのは想像できる。
編集: 低評価を受けているようです。しかし、誰も私に答えを与えることはできません。現在、RAG サービスには間違いがあります。開発者は自分たちの製品が間違いをxxxことを嫌いますが、現時点ではその問題を解決できません。では、メディア企業は、これらの RAG サービスが間違いを犯さないようにするには、サービスを禁止する以外にどうすればよいでしょうか?
実際には、彼らはおそらく何もしないだろうと私は確信しています。 YouTube など、オンラインのさまざまなサイトには「フェアユース」ビデオがたくさんありますが、日本には「フェアユース」がなく、日本にいる人がそのようなビデオを法的に作成することはできませんが、それでもオンラインでアクセスできます (どこかのおかしな会社が法的手段を講じて YouTube にリージョンロックをさせるまでは)。おそらく日本は他の国にもRAGを規制するように働きかけることができるだろうが、それがなければ、主要国が唯一そうしようとしていたとしても、日本は何もしないだろう。
せいぜい、企業に RAG 関連の機能をリージョン ロックさせることができる程度であり、いずれにせよ VPN を使用して回避できるだけです。
あなたが正しいと思います。 「AI の精度の要求」という全体的な見方は、これらのテクノロジーが人間の記事を読むのに取って代わるという彼らの本当の恐怖を少し覆い隠しているように思えます。
おそらくですが、私は AI がおそらくすでに大きな誤報問題に寄与すると考えています。
ただし、主にAIを使用する悪意のある者によるものだと思いますが、検索での幻覚反応も寄与すると思います。Googleが人々に悟空にチェックの助けを求めるように指示していたときにポップアップしたミームをすべてすでに見てきました鶏肉の温度を調べたり、実際に安全な温度について人々に危険なほど間違った情報を与えたり、ピザにチーズを接着するように人々に伝えたりしていました(笑)。
現在、RAG サービスには間違いがあります。
おそらく彼らは、他人の情報を無料で利用してクソ製品を開発できると期待すべきではないでしょうか?
大企業がオンラインの公共の場を密かにかき集める前と同じように、コンテンツを生成するために(安価な)労働力を支払う
ご覧いただきありがとうございました。みなさんはどう感じましたか?
コメント