はてなキーワード: 弾圧とは
はてなブックマークでは表現の自由のジレンマはリバーシ仮説だったと思うよ〜
しばらく前にも何度か、クレーム表現は自由なのか問題が議題として上がったけど、記憶が正しければ確か、ほとんどがリバーシ仮説的な説明が人気コメントになってたと思う
言ってないよ、誰も。
キミらが「キモい」は「内心だから」を盾に、表現の自由を弾圧してきたんだろうが!!
個人で感想を持つのは勝手だが、それを社会正義という名の、絶対思想を気取って、気に食わない表現を世界から消し去ることが表現の自由の弾圧でなかったら、何だというんだよ!?
フィクションは嫌なら見なけりゃいいだけ
言ってない。表現を弾圧したい動機なんてないし、あまつさえ「やめて」なんて。
誤解があるみたいだけど、私たちが求めてるのは、表現規制じゃなく価値観のアップデートだから。
ポスターとか広告とかへのクレームは、絶え間なく続いてきたけれど。
表沙汰になって炎上するのは少数だけ。
だけど、女性の表現を取り下げる要求をしたヒトなんて事実上まったく少ないんじゃないかな。
願わくば視聴者側と製作陣の両方のモラル感覚、何でよろこぶか、何が女らしさか、の価値観がアップデートされて。
いつの間にか、しなくなってくれたら。
踏み越えるかで迷いたくないよ。
理由は単純で現政府によるギャングの弾圧があまりにも苛烈なため
入れ墨入れてるだけで逮捕されるし、取り調べでギャング認定されたら例外なく無期懲役で収容所に送り込まれる
この1年半で1万2000人以上のギャングとみなされる人々(冤罪の疑義が一部ある)がCECOTに収容された。
これによりギャングたちは組織暴力と薬物への信仰を失い、メキシコカルトに救いを求めて急速に広がってる
ただこのカルトは元々それなりに広まっていたため、カルトのモチーフをギャングの刺青に取り込んだりして捜査のかく乱を狙っている節もある。
元からそれなりに冤罪疑惑があったので、こうしてカルトを巻き込むことで警察行政へ負担をかけることにはなりそうである。
これまで日本人が多少タトゥーをしていても、アジアンならええかで見過ごされてきたが、メキシカンカルトとのつながりによって今後は危険性が増すかもしれない。
今のところ渡航情報で特別な危険情報は出ていないものの、隠せるなら隠した方が良いだろう
ちなみにギャングに厳しいのは警察だけじゃなくて他のギャングもなので、縄張りで誤認されたら殺されちゃいます。お気をつけて。
ま、マジっすか…
それはさすがに首肯しかねるでござるよ…
規制や弾圧がいい表現を生み出すバネになる例はもちろんあるだろうけど、だからといってわざわざ許容するようなものではないような…
実質的に原爆によって日本は民主国家になれたけど、だからといって原爆を肯定するのは無理、みたいな…
SCA自(すかぢ)
@SCA_DI
4時間
コロナ禍の無利子貸付の時に申請したら、財務状況見て「にこにこで問題ありませんね」と言われた翌日に断りの電話が入り理由を明確に「アダルトゲームだから」と言われたのは幻聴ですかね。
あと実際に実例話だらけなのですが、この方は何者で皆が知らない事実を知って断言されてる?
petrovich
@petro_vich
「銀行が金を貸してくれないからクラウドファンディングでやりますエロゲプロジェクト」が増えた結果「2次エロを弾圧する邪悪で巨大で匿名の意思」は存在せず「約束と成果物がかけ離れている納期も守らないしかも再三」という実態が明るみに出て「そら金なんて貸さんわな」の理解が市井に広まり深まる
20.3万 件の表示
petrovich
@petro_vich
「プロジェクトは遅れるもの」「CFはプロジェクトの一種」「だからCFも納期が遅れる」という三段論法™面ももちろんあるのだが、遅れていることとその対処を説明する相手が金融機関から一般の有象無象に変わった結果、マトモな言い訳が要らなくなった代わりに不平不満が数百倍広がるようにもなったよね
近年、人工知能(AI)の急速な発展に伴い、「AIは人間に害をもたらすのではないか」「AIが社会を支配してしまうのではないか」といった不安や懸念が高まっている。しかし、単に「AIだから悪」という価値観を持つことは、技術の本質や社会が直面している課題を正しく捉えられなくなる大きな要因となり得る。技術が普及する過程では常に新たなリスクや倫理的問題が顕在化するものだが、それらを踏まえて社会全体で適切に向き合い、利点を活かしながら解決策を模索するのが本来の在り方である。「AIだから悪」とあらかじめ決めつけてしまうと、AIがもたらしうる肯定的な側面に目を向ける機会を失い、結果として人類にとっての有益な発展を阻害してしまう恐れがある。私たちは、単純な二項対立でAIを悪とみなすのではなく、より柔軟かつ批判的思考をもってAIと向き合い、その可能性を探求しながら慎重に導入を進める必要があるのではないだろうか。
そもそも「AIだから悪」という考え方が生まれる背景には、SF作品などでしばしば描かれる「AIによる人類支配」のようなシナリオが大きく影響しているだろう。AIが自我を持ち、制御不能な状態となって暴走するイメージは、多くの人にとってわかりやすい恐怖をかき立てる物語として浸透してきた。しかし実際には、現在主流となっているAIの多くは「機械学習」や「ディープラーニング」と呼ばれる手法をベースとしており、大量のデータから確率的にパターンを学習する仕組みにすぎない。人間のような自発的意志や欲望を持ち、自らの意図によって行動を決定するというよりは、与えられたデータとアルゴリズムに基づいて最適化を行うシステムである。もちろん、未来にはさらに高度なAIが開発される可能性があるが、それがすぐに「悪意を持つ存在」へと直結するわけではない。そもそも「悪意」は人間の感情や欲望に基づくものであり、機械がそのような感情を抱くには、また別の次元の技術的・哲学的課題が存在するのである。
次に、AIが社会にもたらすメリットを考えてみたい。例えば、医療分野では画像診断や病気の早期発見、創薬プロセスの効率化といった形でAIの活用が進んでいる。医療従事者が本来の診察や患者ケアにより集中できるようになるために、AIが持つ高速かつ正確なデータ処理能力が大いに役立っている。また、教育分野でも個々の生徒の学習進度や得意分野・苦手分野に合わせて最適な教材を提供する「アダプティブ・ラーニング」が注目されている。さらに、公共交通機関や都市インフラの管理、災害予測など、AIの活用によって安全性を高める取り組みも多数見られる。これらは一部の例にすぎないが、AIが適切に機能することで、人間が負担していた危険な作業や大量の事務処理を効率化し、創造的な活動や人間同士のコミュニケーションに割ける時間を増やす可能性がある。そして何より、そうしたAIの活用から生まれる恩恵をより多くの人に行き渡らせることが、社会全体の豊かさや福祉向上へつながるのは間違いないだろう。
しかし、AIを盲信するあまり、リスクを見逃してはいけないのも事実だ。たとえば、AIによる差別や偏見の助長が挙げられる。AIは過去のデータをもとに学習を行うため、もし学習データそのものが人種・性別・年齢などにおいて偏りを含んでいれば、そのバイアスを引き継いだまま判断を下してしまう恐れがある。また、AIによる監視システムの高度化は、プライバシーや人権に対する脅威となる可能性を孕んでいる。中国における社会信用システムが世界的に物議を醸しているように、AIの発達した監視社会が政治的弾圧や思想統制の手段として利用されるリスクは現実の課題である。こうしたリスクや懸念を踏まえても、なおかつ私たちはAIを「ただ悪だ」として葬り去るのではなく、問題を明確化し、より公正かつ倫理的なシステムとして実装していくための議論を深める必要がある。技術そのものが悪を生み出すのではなく、それを用いる人間の価値観やルール設計こそが、悪を増幅させるかどうかを左右する鍵となるからである。
さらに、AIの普及とともに懸念される「雇用の喪失」や「格差の拡大」にも目を向ける必要がある。単純作業や事務作業が自動化されれば、多くの職種がAIやロボットによって代替される可能性は高い。一方で、新しい産業や仕事が生まれることも事実だ。インターネットが普及した当初、IT系の新たな雇用が急激に増えていったように、AI時代にもAI開発者やデータサイエンティスト、AIを活用した新ビジネスを運営する起業家など、多様な新しい職業が創出される見込みがある。ただし、その恩恵を受け取れるかどうかは、教育やスキル習得の機会、あるいはインフラ環境の整備によって大きく左右されるだろう。格差を是正しつつ、人々がAI時代に適応できるようサポートするのは政府や企業、教育機関の大きな責務であり、社会全体で取り組む課題である。
このように、AIは確かに多くの可能性と同時に少なからぬリスクを内包している。しかし、それは他の科学技術でも同様であり、「自動車が登場すれば事故が増える」「インターネットが普及すればサイバー犯罪が増える」といった歴史的事例を振り返ってもわかるように、技術の進歩と社会問題は常に表裏一体の関係にある。そこで必要なのは、技術そのものを一方的に悪と断じて排除するのではなく、どのようにコントロールし、社会の利益につなげるかという視点だ。自動車が普及した際に交通ルールや免許制度、インフラ整備などが整っていったように、AIに関しても倫理的枠組みや規制の整備、そして国際的な協調や情報共有を行うことで、リスクを最小限に抑えながら技術の恩恵を享受する道筋が開かれるはずである。
AIによる影響は産業界や技術界だけでなく、社会全体に及ぶものであるからこそ、多角的な視点で議論を深めることが重要だ。企業が自社の利益のみを優先してAIを導入すれば、労働環境や消費者の権利を損なう危険があるし、逆に必要以上に規制を強化しすぎればイノベーションの阻害にもつながる。だからこそ、政府や学術機関、民間企業、NPO、さらには市民一人ひとりが、AIの可能性とリスクについて正しく理解し、建設的な対話を行う必要がある。メディアを通じて発信される情報に対しても、鵜呑みにするのではなく、どのような観点や利害関係が存在するのかを見極め、複数の情報源を比較検討するリテラシーが求められる。こうした取り組みを継続していくことで、AIと共生する社会の基盤を整備することが可能となるはずだ。
結局のところ、「AIだから悪」という先入観は、私たち自身が新しい技術に向き合う意志や理解を閉ざしてしまう偏見にほかならない。私たちがすべきことは、AIが実際に社会や生活にもたらす影響を多方面から検証し、倫理や法制度を整備しながら、より良い方向へと導いていくことだろう。技術そのものに善悪はなく、それを使う人間の意図や制度設計の巧拙こそが、結果の良し悪しを大きく左右する。AIの進歩を恐れて拒絶するのではなく、責任ある形で技術を運用し、人類の発展と福祉に活かしていくために、社会全体が協調しながら知恵を絞る必要があるのだ。「AIだから悪」という価値観を一掃することは、単にAIに対するネガティブなイメージを払拭するだけでなく、技術の可能性を最大限に引き出し、同時にリスクを丁寧に管理していくための第一歩なのである。