База знаний
Всего документов: 3
30.05.2024
2024 Индекс прозрачности базовых моделей v1.1 май 2024 г./The Foundation Model Transparency Index v1.1 May 2024, HAI Stanford
Аналитические документы
Мировые рейтинги, индексы ИИ
The Foundation Model Transparency Index v1.1 May 2024
Базовые модели ИИ становятся все более значимыми для общества, однако они крайне непрозрачны. Чтобы охарактеризовать существующее положение дел, в октябре 2023 года был запущен Индекс прозрачности базовых моделей для оценки объяснимости разработок ведущих ИИ-специалистов.
1
HAI Stanford
23.04.2024
2024 Борьба с систематическими предрассудками: исследование предвзятого отношения к женщинам и девочкам в больших языковых моделях/Challenging systematic prejudices: an investigation into bias against women and girls in large language models, UNESCO
Аналитические документы
Этика и безопасность ИИ
Challenging systematic prejudices: an investigation into bias against women and girls in large language models
В этом исследовании рассматриваются предубеждения в трех значимых больших языковых моделях (LLM): GPT-2 от OpenAI и ChatGPT, а также Llama 2 от Meta, подчеркивая их роль как в продвинутых системах принятия решений, так и в качестве диалоговых агентов, ориентированных на пользователя. В кратком обзоре, посвященном многочисленным исследованиям, показано, как в текстах, создаваемых моделями, возникают предубеждения, связанные с отношением к женщинам.
1
UNESCO
17.04.2022
2022 Гарантии защиты от алгоритмической предвзятости для рабочей силы/Algorithmic Bias Safeguards for Workforce, Data and Trust Alliance
Аналитические документы
Образование и кадры
Algorithmic Bias Safeguards for Workforce
Гарантии защиты от алгоритмической предвзятости для рабочей силы - это критерии и обучение для HR-команд по оценке поставщиков на предмет их способности выявлять, смягчать и контролировать алгоритмическую предвзятость при принятии кадровых решений.
1
Data and Trust Alliance