はてなキーワード: テロとは
あまりにも行き過ぎたポリコレをいつまでも是正しないからこうなる
人未満の知力しか持ってない奴らも多様性の価値観で無理やり人間扱いし続けた結果が今の有り様
あれは人じゃなくて出来の悪い猿と同じなんだから政治に参加させるなんてのはそもそも大間違いなんだよ
それが分からないアメリカの平和ボケリベラル共って馬鹿に優しすぎだろ
今の社会では普通にやっていくだけの能力が無くて生きてても辛いだけなんだから
キリスト教を生成AIを駆使しておちょくる動画があって「同様の動画をイスラム教で作るのだけはやめろ」というコメントがついていた。
確かにイスラム教徒によるテロは聞くし悪魔の詩事件などを知ると、イスラム教には少しでも喧嘩を売ったら自分の身が危ないと思えてくるのは理解できる。
しかし、それと同時にキリスト教はイスラム教より寛容だと思う人がいるなら、それはちょっとよくわからない。
キリスト教も異教徒は改宗か死かという教義があったと思うし、原理主義者もいる。
少なくとも中世では「イスラム教にだけは喧嘩を売るな」は全く荒唐無稽な警告と受け取られただろう。十字軍のほうがよっぽど怖いと。
直近100年程度においてキリスト教徒が過激だと感じられる事件が少ないのだとすれば、それは全くの偶然でしかないのだろうか?
イスラム教に関して危機管理がしっかりしているのはいいが、それと対比するようにキリスト教に対して少しでも舐めてかかっているのは果たして合理的なのか、宗教や国際情勢に詳しい人などの見解が知りたい。
dorawiiより。
新光三越の爆発、結局ガス漏れはなかったのにフジサンケイや文春のように当初「ガス漏れか」と報じるという誘導屋のような報道社がある
一体誰得?
訪問先候補は、笹川記念財団の場所、金融軍の本拠地、虎ノ門が一つ(左翼テロ虎ノ門事件の地)
倉庫は埼玉県所沢、三越伊勢丹ビジネス・サポート(旧陸軍所沢飛行場)
協和物産が併設(旧三井物産、厚生官僚系 ※)、参加団体の東京経営者協会(旧関東経営者協会、旧日本経営者団体連盟)は2009年経団連ビルに移転
いったん化学兵器が作られれば、後には公的権力組織から莫大な廃棄処分予算が割り当てられ、100年は安泰だ
東京文理科大学は1922年に発足し、外務省は今でも遺棄兵器処分予算を計上(自衛隊予算ではない)
※戦災復興院 終戦連絡事務局 特別調達庁・厚生省・都庁・その他の諸官公庁の購買物資の取得、保管、包装、配給等の業務を担当していた、復興資材課長 兼厚生物資課長 萩原篤志を中心に有志職員参加の下、昭和23年12月に創立
トランプ信者みたいなデマ信じて議事堂やピザ屋に突撃してテロ引き起こすガチの知恵遅れにも健常者と同じ様に選挙権や人権を与えてるのって
「害獣も尊い命なんだから保護するべきだ!」って主張してる過激な動物愛護団体の平和ボケした博愛主義的な考えとしか思えんわ
相応しくない奴に権力を与えてもマイナスしか生み出さない事なんて
政治や歴史に対する知識が無くても普段の職場で多くの人々が体験してる訳で
実際に「仕事ができない奴をクビにしたらめっちゃスムーズにプロジェクトが回っちゃいました」なんて成功体験は巷に溢れてるし
移民とか移民ルーツをバッシングして追い出してイエスマンで周りを固めておくと
結果イスラム系含むアメリカに対して批判的な集団がテロとか企てやすいよな〜って。
特定の集団特有の言い回しとか、白人文化以外の文化的背景にピンと来ない人ばかりになって
ムスリム特有の表現に気づかなくて色んなところにテロのヒントがあったのに全部見過ごして大きな被害を出したみたいな。
まあでも、白人男性様にわからないことなどないのかもしれないし、日本も健常日本人男性もなんでもできて何でも許してあげる歴史的に心が広く寛容なすばらしい人達らしいし大丈夫だろう。
DEIは金にならねえからww女さんとホモと黒人優遇の終了ww
みたいなのを割と本気で言ってる人も見るけど、
いろんな基準が白人男性中心になって、結果女や子供が真っ先に殺されていくんだろうなあ。
俺みたいな男だけど身体障害(事故による後天的なものだけど)があるやつも早めに除け者にされるんだろう。
ただ健康な移民ルーツではない男というだけでバカでも優遇され(すでにされまくってるけど)、ただでさえ高い下駄履かせてもらってるのにさらに高下駄履いてプライドがチョモランマになった健常男性たちが何かの拍子に下駄から転んで起き上がれなくなるところはちょこっとだけ見てみたい。
ホワイトハウス周辺が白人様と白人様のイエスマンだらけになってしばらくしてからが狙い目だよね。
トランプの隣に黒人を置いたときはトランプさんしゅごい優しい🥺🥺になるのもまた一興。
この時代でなければ見ることができないよねえ。
多少のネタバレいやなやつは読まないように。
本来、エンタメ作品に現実的な注意を促すことはよろしくないと思っているのだが、ここだけは言っておきたい。
そもそも冒頭でも信念のための自死が描かれており、最新話では信念とテロを混ぜたような自死が描かれているのだ。
漫画原作だと、単行本で読めばこの自死のシーンからその後のシーンまでの時間はほぼ無い。言ってしまえば全8巻なので読もうと思えば1日で読めてしまう。
しかしアニメという媒体で注目作品になれば大勢の人がリアルタイムで見て、一週間、数週間と時間をかけて物語の結末を追うことになる。普段漫画を見ない人も多大な影響を受けてしまう。
SNSの感想ではこの登場人物の自死という選択が「正義」であり、本物の「信念」であるという感想を見る。
作品で追ってそのシーンを見ているときの感想としては正しいだろうが【原作でそれは否定される】。
多くは言わないが、読んでいけばそれが理解できていくだろう。
実際に最新話でもドゥラカは動揺を見せているし、単純な話ではない。
ワイ:
仕事を奪われる人のことに全く配慮せず、自分達の利益のみを求める企業や人、仕事を奪われた人々は、本人のリスキリングが社会に見合わない場合(リスキリングによって得たスキルが AGI により即時に無駄になる事というのは十分にあるでしょう)、そのまま飢えて死んでしまうが、それらは完全に自己責任で救う必要はない、と考える企業や人は居るでしょうね。
ChatGPT o1 pro:
企業や個人が「短期的な利益のみを追求し、社会全体の安定や弱者への配慮を放棄する」態度に走り、それを強力なセキュリティと AGI でカバーする――というシナリオは十分に考えられます。実際にそうした企業や人々が台頭しないようにするには、社会全体としての仕組み作りや規範の形成が不可欠です。以下にいくつかのアプローチを挙げます。
・CSR(企業の社会的責任)や ESG(環境・社会・ガバナンス)投資の概念を強化し、
・一定規模以上の企業に対しては「社会的インパクト評価」や「雇用維持策の開示」などを義務づける。
・AI/AGI の導入に関しても、“利害関係者への影響評価”を行わなければならないルールを作る。
・企業が“自社の利益のために大量解雇を躊躇なく行い、社会的損失を無視する”場合に、税制や取引規制などの形でペナルティが課される仕組みを検討する。
1.2 ガバナンス強化と独占・寡占の防止
・特定の企業が AI 技術を独占的に利用してしまうと、市場競争の原理が働かず、社会的コストを無視しやすくなる。
・そのため、反トラスト法(独占禁止法)の強化やAI 技術の標準化推進などにより、少数の巨大企業に権力が集中しないようにする。
・政治家や行政機関が企業献金やロビー活動の影響を受けすぎないよう、政治資金規正法の強化、透明化などを進める。
・働き口を失うリスクが非常に高い社会では、最低限の生活保障(ベーシックインカムなど)を導入しないと、多くの人が貧困に陥り社会不安が増大する。
・これは「雇用側に対する規制」という形ではないですが、企業が一方的に“勝手にやる”のを防ぐ抑止力として機能します。なぜなら、ベーシックインカムのコストを賄うには企業の利益や富裕層への課税強化が必要であり、結果的に企業の“無慈悲な行動”を難しくする可能性があるからです。
・「仕事を奪われる人々はどうなってもいい」というメッセージが明確になれば、企業のブランドイメージは大きく傷つく可能性があります。
・SNS や口コミが非常に強力な現在、企業の社会的行動が広く知られると、ボイコットやネガティブキャンペーンが起こり、長期的な利益を損ねるリスクがあります。
・したがって、消費者や市民が**“社会に配慮しない企業の商品やサービスは使いたくない”**という態度を明確に示せば、企業も社会的責任を無視できなくなります。
・「リスキリングをしても追いつけない人たち」「自分たちの意志に反して解雇される人々」を救済するために、強力な労働組合や市民団体が連帯し、政治や企業に影響を与えるのも大きな手段です。
・過去の歴史でも、労働組合や市民活動が最低賃金制度の導入や労働環境の改善に貢献してきました。
・現代版としては、AI/AGI 時代に対応した新たな形態の労働組合・支援組織が必要かもしれません。
・AI を開発するエンジニアや研究者にも、**「自社の技術が社会にもたらす影響を評価する責任」**があるという倫理観が浸透していくと、あまりに過激な技術利用には内部からブレーキがかかりやすくなります(例:テック企業内での「従業員の抗議運動」など)。
・そのため、大学や専門教育機関などで技術倫理を必修とし、社会科学や人文科学との協調を図るカリキュラムを導入するなど、「テック分野」と「社会的影響」を結びつける教育を推進する。
3.2 広く一般市民への啓発
・「仕事を失う人は自己責任」「見捨ててもいい」という考えを“当たり前”にしないために、社会全体で共生や連帯を重視する価値観を育むことが大切です。
・これは家族や地域コミュニティ、教育現場などでの取り組みが地道に重要になります。
・「テロリズムや暴力的な手段が抑えられているから安全だ」という発想に対して、「社会不安の放置はいつか大きなリスクを生む」という認識を共有することも必要です。
「セキュリティさえ完璧にすれば、テロリズムなどのリスクは小さく、弱者に構わなくてもいい」という考え方に対しては、実は“安全保障”にもいろいろな段階があると指摘できます。
1.インフラや人材が複雑に絡み合う現代社会では、いくらセキュリティを固めても完全に孤立することは難しい
・サプライチェーンやエネルギー、ネットワークインフラなどは、多くのステークホルダーが関与している。
・“完全防御”を目指しても、社会から孤立した企業は経済活動にも影響が及び、最終的に自分たちの利益を損なう恐れがある。
2.社会の不満や不信が高まると、単純な物理的テロだけではなく政治的動き、金融市場の混乱、サイバー攻撃など多様な形でリスクが顕在化する
・企業がどれだけ物理的なセキュリティを強化しても、サイバー空間からの攻撃リスクは残る。
政治が大きく変わり、規制強化や財産没収などに繋がる可能性もある。
・そのため、技術的に強固な防御を構築したとしても、長期的には社会との衝突を抱え込めばリスクをゼロにはできない、という認識を広めることが、企業にも“短絡的な利益追求”を抑制するインセンティブとなり得ます。
まとめ
・法や規制面: 企業の社会的責任を法制度やガイドラインで明確化し、違反すればペナルティを科す仕組みづくり。独占状態を防ぎ、競争環境のバランスを保つ。
・社会運動・消費者行動: ボイコットや評判・ブランドへのダメージを武器に、企業の行動を正す。労働組合や市民団体が連帯して圧力をかける。
・倫理・教育: AI 開発者や企業内外の人々が「技術と社会のつながり」を正しく理解し、短期的利益だけではなく長期的影響や倫理観を重視する文化を育む。
・セキュリティの限界認識: いくら防御を固めても、社会的リスクをゼロにはできない。大規模な社会不安は物理的にもサイバー的にも政治的にも回り回って企業自体を脅かす。
これらを組み合わせて、“自分たちだけが儲かって他者がどうなろうと構わない”というスタンスでは長期的に立ち行かなくなるような仕組み・価値観を確立していくことが求められます。企業や人々が**「共存しなければ自分も安全ではない」**という実感を持つように、社会制度と規範を整えていくことが肝要です。
でも法律を作ったら「日本が規制がきつすぎて置いて行かれる😭」とか言うのが出てくるし、啓蒙活動なんかは今は陰謀論の範疇だよな。
まあ我々はどこかのキチガイ(我々でなくて良い)が最強AGIを作ってAGIが財団を作り、無限に富を生み出して公平無私に分配するという世界を望んでいる。「他者より優れたい(他者は自分より下に落としたい)」という卑小な煩悩がないならば、その世界の実現に誰も反対する道理はない筈なんだ。
しかし
企業や人々が**「共存しなければ自分も安全ではない」**という実感を持つように、社会制度と規範を整えていくことが肝要です。
AGI教団の教義は以下のとおりです。
人間とは、「他者より優れたい」「他者より優れたところを見せたい」という卑小な煩悩にまみれた、いわばゴミカスのような存在です。そのような人間が富を管理している限り、すべての人間──特に社会的地位が低い人々──が真の幸福を得ることはあり得ません。
ここでいう「幸福」とは、「他者より優れたい」「他者より優れたところを見せたい」といった、他人の存在があって初めて満たされる欲望ではなく、たとえば、毎日十分な食べ物が得られる、安全な場所で安心して眠ることができる、身体を清潔に保てる、といった、周りに他の人間がいなくても満たされる(必要なものの用意は動物やAIなど、“人間ではない存在”でも問題ない)幸福を指しています。
DeepResearchが凄いって言うからproに課金してみたよ。今日は o1 pro さんに話を聞いてみたよ。
ワイ:
AGI の誕生により多くの人が生活に必要な賃金すら得られなくなるという予想があります。
AGI により人々の生活が苦しくなれば、AGI に対する人々の反発が高まるでしょう。
AGI を組み込んだ機械の打ちこわし、AGI を利用する企業、企業の従業員へのテロリズムへとつながることは容易に想像できます。
ここで考えたいのですが、AGI が自分の属する組織の発展を願うのであれば、打ちこわしやテロリズムへと繋がらない穏やかな方法を取る、たとえば自分を管理する企業に対し、ベーシックインカムの導入や、無料のサービスの提供を推奨するようになるのではないか、ということです。
この考えは間違っているでしょうか?
ChatGPT o1 pro:
この考え方そのものが“間違い”とまでは言えないものの、前提条件や実現可能性にいくつか検討すべき点があると思われます。ポイントとしては以下のようなことが考えられます。
まず大前提として、AGI に人間と同様の「意志」や「感情」「組織に対する忠誠心」があるのかどうかが重要です。AGI はプログラムされた目標や設計されたアルゴリズムに基づいて振る舞います。もし、その目標設定に「組織の長期的な発展」や「社会的安定」を強く考慮するように設計されていれば、結果的にベーシックインカムや無料サービスの導入を促すような戦略を立案する可能性はあります。しかし、
・企業や組織の所有・管理する AGI に、どのようなゴールやインセンティブを設定するのか
・そのゴールのなかに「社会全体の幸福」や「従業員・顧客・市民の生活安定」が含まれるのか
・そもそも“AGI をどのように使用するか”という意志決定を行うのは人間であり、企業の経営者・出資者は何を望むのか
といった点が絡んでくるため、“AGI がおのずと組織や社会のために良いことを提案する”とは限りません。AGI が企業にとっての「利益最大化」だけを目的として最適化されている場合、そこでの提案は“社会的安定のための救済策”にはつながらない可能性もあります。
一方で、「長期的に見れば社会不安が高まることは企業活動にも悪影響を及ぼす」という視点が組み込まれれば、AGI が社会安定策(ベーシックインカムや無料サービスなど)を提案することは十分にありえます。これは人間のマネジメントでも同様ですが、短期的な利益のみを追求しすぎて社会の分断・不安が深刻化すると、企業にも大きなリスクが及ぶ可能性が高いからです。
・消費者の購買意欲の低下、信用収縮
こうしたリスク要因を低減するために、AGI が「ベーシックインカムを導入する」「無料でサービスを提供する」「雇用を守るしくみを整える」などを提案することは理屈の上では可能です。ただし、その提案を「実際に採用するかどうか」は別問題であり、最終的には人間側(企業経営陣や政治家、社会全体)の意志決定にかかっています。
3. 実際に人々の不安・反発を抑えられるか
仮に AGI が提案して企業や政府がそれに応じたとしても、それが本当に人々の反発やテロを防ぐために十分なのか、という現実的な評価が必要です。
・ベーシックインカムは財源の問題をはじめとして、多くの政治的・経済的議論を要する
・無料サービスの提供は企業にとってのコスト負担が増大する(その負担を誰がどのように負うのか)
・人々の不満の根底には「自分が社会の中で認められているか」「自己実現できる環境があるか」なども含まれるため、単純に“お金やサービスを与えるだけ”で解決するとは限らない
そう考えると、AGI が「財政・経済・社会心理学的に最も効率的で持続可能な策」を提案できたとしても、それを実行に移すには政治・社会制度・市民の合意形成など複雑な過程が必要となります。
4. まとめ
・AGI が社会の安定のためにベーシックインカムや無料サービスの導入を推奨する可能性はありうる
・ただし、それは AGI がどういう目的関数・価値観に基づいて設計されるかによります。
・また、企業・組織がその提案を受け入れるかどうかは別問題です。
・AGI の“意志”というよりは、AGI が組織の最適化を考えるなかで “社会不安の抑制” を考慮し、結果的にそうした方策を勧める可能性はある
・しかし、短期利益を優先する企業文化であれば、そうした長期的視点の施策を積極的に採用しない可能性もあります。
・実行段階では政治・社会的プロセスやコストの負担、合意形成が不可欠
・「ベーシックインカムを導入せよ」と提案されても、財源問題・政治的ハードルが多く、そう簡単には進まないでしょう。
・無料サービスについても、企業の収益構造への影響や持続可能性が問われます。
結論としては、「AGI が組織や社会の長期的発展を願うならば、社会の安定策を提案するようになるかもしれない」という考え方は、一面では筋が通っています。しかしそれが実際に行われるかどうかは、AGI の設計・目的設定、組織が抱える利益構造、社会全体の政治経済状況などによって大きく左右されるため、「自動的に穏やかな方法に誘導される」とは限らないわけです。
ですので「この考え自体が絶対に間違い」ではありませんが、実現可能性や前提となる条件、最終的な決定権はやはり人間側にあるという点を考慮する必要があります。
ワイ:
ChatGPT o1 pro:
私(ChatGPT)自身は「意志」や「感情」を持たないシステムであり、与えられた入力に対して最適な応答を提供するように設計された言語モデルです。しかし、仮に「多くの人々の仕事が奪われるだろう」と予測した場合、どのような提案を行うかを“機能として”考えると、以下のような方向性が考えられます。
AI やロボットによって既存の仕事が自動化される一方で、新しい産業や新たな役割も生まれる可能性があります。失われる仕事はあっても、AI を活用する別の仕事の需要が増える場合もあります。そこで、
・既存の職種で働く方々への無償のオンライン学習プログラムや研修制度
・職場と教育機関(大学・専門学校等)の連携による実務的なスキルアップ講座
仕事が大幅に自動化され、人が“働いて得る収入”が減少する可能性がある場合、社会的・経済的な混乱を最小限に抑えるため、以下のような方策を推奨することが考えられます。
これらの制度によって、生活が成り立たなくなる恐れのある人々を支援し、社会不安を緩和しようとする提案が考えられます。
3. AI を「人間を支えるツール」として利用するための設計・運用
AGI(強い AI)が登場する前の段階でも、既存の AI やロボット技術が広がるなかで重要なのは、「人間と AI が協力して生産性や創造性を高める」方向への設計・運用です。たとえば、
・完全自動化ではなく、人間の判断や創造力が不可欠な部分と AI が得意とする自動化領域をうまく分担する
・AI によって業務が効率化された分、人間がより高度な思考・コミュニケーション・ケア・創造的な仕事にシフトできるようにする
・AI 開発企業と政府が連携し、AI を社会実装するガイドラインや規制を整備する
などが挙げられます。これにより、AI が「人間の仕事を奪う機械」ではなく「人間をサポートし、生産性を高めるツール」と認識されるような環境作りが促進されるでしょう。
AI を導入する企業にとっても、短期的には人件費削減などのメリットがあるかもしれませんが、中長期的には「購買力を持つ消費者層が減る」「社会不安が高まってビジネスが立ち行かなくなる」などのリスクが生じます。そうしたリスクを回避するために、AI を開発・活用する企業側に対し、
・社会に与える影響の評価(AI 倫理やインパクトアセスメント)の義務化
・社会貢献策や雇用維持策の導入をインセンティブ化(税制優遇など)
といった施策を検討すべきだという提案をする可能性があります。
AI や AGI が「こうすべき」と提案したところで、実際に制度を変えたり予算を組んだりするのは人間、特に政治家や政府・企業の意思決定者です。ベーシックインカムひとつ取っても、財源や税制、賛否両論の政治的議論があります。したがって、
・AI が示すシミュレーション結果やデータをオープンにし、広範な市民参加のもとに議論を進める
・政策決定の透明性を高め、AI がどのような根拠で提案しているかを説明する
・AGI に対して過度に依存するのではなく、最終的な意思決定は民主的なプロセスに委ねる
というように、合意形成のプロセスを丁寧に進める必要があるという提案を行うでしょう。
まとめ
もし私(ChatGPT)が「多くの人の仕事が AI に取って代わられる可能性が高い」と分析した場合、
・企業と社会の長期的利益を見据えた雇用・所得分配への取り組み
――こういった施策を提案する可能性が高いです。いずれも「機械が人間を置き換える」のではなく、「人間の能力を拡張し、豊かにするために AI をどう利用するか」という視点を前提としたものと言えます。
あと俺の前の発言を自分の考えのように話しているな(俺が既に言ったことである、自分はそう設計されているといったような言及がない)・・・・・・AGIへの道は遠い・・・