今日のオリジナル番組


詳細を確認
どこでも栽培可能!?「農業イノベーション」
本日配信
113Picks
Pick に失敗しました

人気 Picker
まだAIが学習できる量が揃っていないのは難しいですよね。
わたしたちが不適切だと思ったら不適切としていくことも大切です。
ソーシャルメディアだけではなくマーケットプレイスなどのメディアも同様の問題があります。一般の人ではいないと思いますが、悪意をもってガイドラインをかいくぐってビジネスにしようという人が必ずいるので、その対応はイタチごっことなります。

記事内の実数値があっているかは定かではないですが、マニュアルでチェックして学習データをとり、なるべく自動化されるような仕組みづくりを目指しているのでしょう。今後GAFAだけでなく、プラットフォームを目指す日本企業の課題になると思いますので、海外でやっていることを参考にできたらいいですね。
1時間25件、普通の人が見るSNSの量と大して変わらないか、それより少ないのでは、という印象。総論、良くやっている方だと思う。テクノロジーの精度で追いつかない以上は人力でやるよりほかない。そのやり方が非人道的というほどにも見えない。
Facebookを見ていて不適切コンテンツのようなものに出くわした経験もほぼ無い。一方で周囲にいわれのない不適切コンテンツ削除をくらった人はごく少ないものの何人かいる。

ただし適切な回復措置がなされるのならば、不適切コンテンツがばら撒かれるくらいなら多少厳しかったり間違いが混ざったりするのは許容の範囲なのではなかろうか。何事も完璧は無い事をこの類のGAFA批判においては前提に置くべきではなかろうか。ちなみに彼の研究室かは知らないがこの統計の発表元NY大学MBAには、かのアンチGAFA急先鋒、スコットギャロウェイ教授がいる。
青少年のネット問題や炎上問題が重視され始めたのは10年ほど前ですが、プラットフォーム上の違法有害情報をチェックする仕事は心を病むという指摘が当時もうありました。AI自動チェックの導入を期待していましたが、まだまだなんですね。
GPT-3のような文章生成AIによって事前に疑われるべきコンテンツを学習させることも少しは役に立つのかもしれないが、ある意味でそこは人間のクリエイティブな部分なのかもしれない。Facebookですらこの状況なのに、解決できるAIをもし作れたら早エグジット。エグジットして終わりが良いのかどうかは別として。
#自分に言い聞かせ #株 #株初心者 #株価 #株式投資 #デイトレード #人口知能 #AI #スキル #スキル習得 #スキラン
Facebookのコンテンツ監視についてのデータが興味深い。
監視のモデレーター1万五千人で、1日あたり300万件の投稿を監視。心理的に圧迫される投稿もあるでしょうし、ちょっとゆとりがないのかなという気もしましたが...
個々のコンテンツを監視するので難しいのであり、そのコンテンツを投稿する人のプロファイリングをすることで、第一弾のフィルターをかければ、監視する対象を劇的に減らすことができるのではないでしょうか?

セキュリティ分野では常識ですが、問題のある行動をする人達の割合は、全体のうち、極めて限定されていますから。

※個人的な見解であり、所属する会社、組織とは全く関係ありません