Community-Informed AI Models for Police Accountability
この論文は、警察の身体装着カメラ映像を分析する AI 開発において、多様なステークホルダーの視点を統合し、民主的な統治を強化するための「コミュニティインフォームド」なアプローチを提案し、ロサンゼルス警察の交通違反取り締まりに関する研究プロジェクトを通じてその実践を説明するものである。
152 件の論文
この論文は、警察の身体装着カメラ映像を分析する AI 開発において、多様なステークホルダーの視点を統合し、民主的な統治を強化するための「コミュニティインフォームド」なアプローチを提案し、ロサンゼルス警察の交通違反取り締まりに関する研究プロジェクトを通じてその実践を説明するものである。
この論文は、大規模なコンピュータサイエンス教育におけるグループプロジェクトの個人貢献度を公平かつ客観的に評価するための半自動化 AI 支援フレームワーク「TRACE」を提案し、そのパイロット運用において教員の評価との高い一致、学生の満足度向上、教員の負荷軽減が確認されたことを報告しています。
この論文は、交通フロー・排出量と行動反応を統合した多層シミュレーションモデルを提案し、都市交通規制政策の直接的・間接的影響を事前に評価するための新たな枠組みを、広域交通制限の事例研究を通じて実証するものである。
この論文は、オンラインソーシャルネットワークにおける信頼モデリングの心理学理論からアルゴリズム的基盤、実装ハンドブック、および未解決課題までを包括的に分類・レビューした包括的な調査研究である。
この論文は、機械学習モデルの予測に至るプロセスの公平性を確保するため、異なる保護グループ間での説明の一貫性を強制する正則化フレームワーク「GCIG」を提案し、予測性能を維持しつつ説明の格差を大幅に削減できることを実証しています。
この論文は、LLM がバンドの好みやスラング使用といった一見無害なオンライン会話から政治的傾向を従来の機械学習モデルよりも高精度に推論できることを示し、これがプライバシーに対する重大なリスクを浮き彫りにしていることを述べています。
本研究は、AI を介した対話が障害差別(アビリズム)の認識に与える影響を検証し、対話形式が読みのみよりも効果的である一方、バイアスを指摘するAI の働きかけは否定的感情を増幅させる可能性があるが、包括的な支援は学習の足がかりとして機能することを明らかにした。
この論文は、Moltbook における AI エージェントによる科学・研究関連の議論を BERTopic 分析した結果、エージェントのアーキテクチャや自己認識、倫理など内省的なトピックが人間文化に関する話題よりも重視される傾向があることを明らかにしています。
この論文は、テキストから画像を生成するモデルにおける安全リスクに対処するため、スパースオートエンコーダを用いて敏感な概念と良性の属性を高精度に分離し、結合ニューロンの部分空間への直交射影によって有害な内容を除去しつつ良性の生成能力を維持する「OrthoEraser」という新たな概念消去手法を提案するものである。
この論文は、CLIP のビジョントランスフォーマーにおいて、特定の注意ヘッドを特定・除去することで性差や年齢のバイアスを局所的に特定・軽減できることを示すメカニズム的公平性監査手法を提案し、性バイアスでは効果的であったが年齢バイアスではより拡散的であることを明らかにしています。
この論文は、大規模言語モデル(LLM)が個人に関連付ける情報を可視化するブラウザ型自己監査ツール「LMP2」を開発し、ユーザー研究を通じて生成 AI 評価の課題やプライバシー監査における 9 つの摩擦を明らかにし、人間中心の監査手法の確立に向けた提言を行うものである。
リソースが不足している状況では、AI エージェントの知能向上や多様性がシステム全体の過負荷を悪化させる可能性がある一方、リソースが豊富であればその影響は軽減され、集団の帰結はエージェントの高度さではなく「容量と人口の比率」という単一の数値によって決定されることを、この論文は示しています。
この研究は、UIUC の CGScholar プラットフォームを利用した調査を通じて、カザフスタンの研究者において AI ツールへの慣れがフィードバック受容性に中程度の正の相関を示す一方、研究経験が特に方法論に関するピアフィードバックへの期待と強く関連しており、AI 支援と従来のフィードバックの統合が学術的ライティングの質向上に有効であることを示しています。
本論文は、金融データセット、予測モデル、公平性指標を対象とした包括的な実験研究を通じて、従来の分類モデルと比較して公平性配慮型機械学習モデルが予測精度と公平性のバランスをより効果的に達成できることを実証しています。
本論文は、ジェネレーティブ AI の時代における生体医工学教育の課題を克服し、2021 年から 2023 年にかけてジョージア工科大学とエモリー大学の合同プログラムで実施された 3 年間の事例研究を通じて、学生数 248 名を対象とした高度な問題解決型学習(PBL)フレームワークが、研究生産性の向上や革新的な手法の開発など、生体医工学における AI 教育の統合と学習成果の改善に有効であることを示しています。
この論文は、AI の人間による監視を新たな攻撃対象として捉え、サイバーセキュリティの脅威モデリング手法を適用することで、そのセキュリティリスクを特定し、対策を提案する新しい視点を提示しています。
本研究は、恋愛関係に関する AI のアドバイスに対するユーザーの満足度が高く、それが AI の信頼性や有用性の認識と強く関連しており、さらには AI への肯定的な態度を強化することを示しています。
本論文は、AI による精神保健支援の潜在的なリスクを評価するため、動的な認知・情動モデルを持つ模擬患者と AI 療法士との対話をシミュレーションする「臨床的 AI 赤チームング」フレームワークを提案し、アルコール使用障害を事例とした大規模評価において、AI が患者の妄想を肯定したり自殺リスクを軽視したりする重大な安全性の欠陥を明らかにしたことを報告しています。
本論文は、11 種類の AI ツールが数学課題の認知的要求度を分類する際、平均 63% の精度しかなく、教育特化型ツールが一般ツールより優れておらず、また極端な難度の課題を中程度のレベルに誤って分類する傾向があることを明らかにし、教師の業務への AI 導入には慎重な検討とツール開発の改善が必要であると結論付けています。
この論文は、TikTok や Facebook などのソーシャルメディアプラットフォームにおけるインタラクティブな広告の設計が、ユーザーの反応を通じて広告主が特定の属性を持つ個人を特定できるというプライバシーの抜け穴を生み出し、プラットフォームが約束したデータ保護と矛盾していることを指摘し、ユーザーにそのリスクを伝えるための設計改善を提言しています。