Knowledge base
Total documents: 33
22.12.2023
2023 Научно-публикационная активность в сфере искусственного интеллекта. 4 квартал 2023 года, НЦРИИ
1
Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации
22.12.2023
2023 Обзор наиболее значимых научных работ в сфере ИИ. декабрь 2023, НЦРИИ
1
Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации
22.12.2023
2023 Обзор наиболее значимых научных работ в сфере ИИ. ноябрь 2023, НЦРИИ
1
Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации
22.12.2023
2023 Обзор наиболее значимых научных работ в сфере ИИ. октябрь 2023, НЦРИИ
1
Национальный центр развития искусственного интеллекта при Правительстве Российской Федерации
21.12.2023
2023 Кто лидирует в ИИ? Анализ отраслевых исследований в области искусственного интеллекта/Who is leading in AI? An analysis of industry AI research, Epoch AI
Who is leading in AI? An analysis of industry AI research
Эксперты Массачусетского технологического университета (MIT) и центра Epoch AI проанализировали 23 ведущие компании, занимающиеся искусственным интеллектом (ИИ), и сравнили их по числу исследовательских публикаций, цитируемости, объему обучающих программ и вкладу в инновации.
1
Epoch AI
21.12.2023
2023 Не по порядку: Насколько важен порядок слов в предложении в задачах на понимание естественного языка?/Out of Order: How Important Is The Sequential Order of Words in a Sentence in Natural Language Understanding Tasks?, Adobe Research
Out of Order: How Important Is The Sequential Order of Words in a Sentence in Natural Language Understanding Tasks?
В отчете исследуется то, как влияет последовательность слов на качество выходных данных больших языковых моделей.
1
Adobe Research
23.11.2023
2023 Операционные риски ИИ при крупномасштабных биологических атаках/The Operational Risks of AI in Large-Scale Biological Attacks, RAND
Аналитические документы
Этика и безопасность ИИ
The Operational Risks of AI in Large-Scale Biological Attacks
Авторы настоящего доклада рассматривают возникающую проблему выявления и снижения рисков, связанных с неправомерным использованием ИИ, в частности, больших языковых моделей (LLM), в контексте биологических атак.
1
RAND
20.10.2023
2023 Индекс прозрачности базовых моделей/The Foundation Model Transparency Index, HAI Stanford
Аналитические документы
Мировые рейтинги, индексы ИИ
The Foundation Model Transparency Index
Индекс прозрачности базовых моделей 2023 года охватывает исходные ресурсы, используемые для построения базовой модели (например, данные, трудозатраты, вычисления), подробную информацию о самой модели (например, размер, возможности, риски) и последующее использование (например, распределение каналы, политика использования, затронутые географические регионы). Исследователи оценили 10 основных разработчиков базовых моделей (например, OpenAL, Google, Meta) по 100 показателям, чтобы оценить их прозрачность.
1
HAI Stanford
02.10.2023
2023 ИИ и наука: что думают 1 600 исследователей/AI and science: what 1,600 researchers think, Nature
Аналитические документы
Образование и кадры
AI and science: what 1,600 researchers think
Опрос Nature показывает, что ученые обеспокоены, а также взволнованы растущим использованием инструментов искусственного интеллекта в исследованиях.
1
Nature
15.09.2023
2023 Современные базовые ИИ-модели должны сопровождаться механизмами идентификации ИИ перед обнародованием/State-of-the-art Foundation AI Models Should be Accompanied by Detection Mechanisms as a Condition of Public Release, GPAI
Аналитические документы
Аппаратно-программный комплекс ИИ
State-of-the-art Foundation AI Models Should be Accompanied by Detection Mechanisms as a Condition of Public Release
В документе предлагается принцип, который должен быть включен в законодательство, а именно, что любая организация, разрабатывающая новую ИИ-модель, должна продемонстрировать надежный механизм обнаружения контента, создаваемого этой моделью, в качестве условия выпуска.
1
The Global Partnership on Artificial Intelligence