What is scientific knowledge produced by Large Language Models?
- Authors: Baryshnikov N.P.1
-
Affiliations:
- Pyatigorsk State University
- Issue: Vol 25, No 1 (2024)
- Pages: 89-103
- Section: Статьи
- URL: https://journal-vniispk.ru/2305-3763/article/view/286477
- DOI: https://doi.org/10.17726/philIT.2024.1.6
- ID: 286477
Cite item
Full Text
Abstract
This article examines the nature of scientific knowledge generated by Large Language Models (LLMs) and assesses their impact on scientific discoveries and the philosophy of science. LLMs, such as GPT‑4, are advanced deep learning algorithms capable of performing various natural language processing tasks, including text generation, translation, and data analysis. The study aims to explore how these technologies influence the scientific research process, questioning the classification and validity of AI‑assisted scientific discoveries. The methodology involves a comprehensive review of existing literature on the application of LLMs in various scientific fields, coupled with an analysis of their ethical implications. Key findings highlight the benefits of LLMs, including accelerated research processes, enhanced accuracy, and the ability to integrate interdisciplinary knowledge. However, challenges such as issues of reliability, the ethical responsibility of AI‑generated content, and environmental concerns are also discussed. The paper concludes that while LLMs significantly contribute to scientific advancements, their use necessitates a reevaluation of traditional concepts in the philosophy of science and the establishment of new ethical guidelines to ensure transparency, accountability, and integrity in AI‑assisted research. This balanced approach aims to harness the potential of LLMs while addressing the ethical and practical challenges they present.
Full Text
0. Прояснение понятий
LLM (Large Language Model), Большая языковая модель – это алгоритм глубокого обучения, который может выполнять различные задачи обработки естественного языка (Natural Language Processing). Большие языковые модели используют модели-трансформеры и обучаются с использованием огромных наборов данных, что позволяет им распознавать, переводить, прогнозировать или генерировать текст или другой контент. Большие языковые модели также называются нейронными сетями, которые представляют собой вычислительные системы, спроектированные подобно структурам человеческого мозга. Нейронные сети работают с использованием многоуровневой сети узлов, подобно нейронам. Помимо обучения работе с естественным языком большие языковые модели также можно обучить выполнению различных задач, таких как расшифровка белковых структур, написание программного кода, проектирование новых химических элементов и многое другое. LLM должны быть предварительно обучены, а затем точно настроены, чтобы они могли решать проблемы классификации текста, ответов на вопросы, обобщения документов и генерации текста [What is a large language model (LLM)?].
1. Введение
В декабре 2023 г. в журнале «Nature» вышла статья Давида Кастелевичи «DeepMind AI превосходит математиков‑людей при решении нерешенной задач» [Castelvecchi, 2024]. На основании этого заголовка в сети распространились тексты с утверждениями о том, что с помощью Больших языковых моделей (далее в тексте используется термин LLM – от англ. Large Language Model) возможны настоящие прорывы в области трудных проблем математики [Romera‑Paredes et al., 2023]. Объемные и многочисленные публикации по указанной теме закрепили в поле научного дискурса представление о наступлении эпохи эффективного кодинга и «быстрых» научных открытий, сгенерированных LLM‑подобным искусственным интеллектом [Schick et al., 2023; Park et al., 2023; AI4Science. Microsoft Research, Quantum, Microsoft Azure, 2023]. Основания философии науки позволяют увидеть в этих тенденциях проблему, которая требует тщательного прояснения понятий. Необходимо ответить на вопросы: «Что такое новое знание?», «Всякое ли новое знание является научным открытием?», «Какие существуют эвристические ограничения для нового знания, сгенерированного при помощи LLM?».
Почему это важно? Есть несколько оснований, позволяющих отнести представленную проблему к классу актуальных философских проблем. Во‑первых, новые технологические прорывы могут потребовать уточнения и расширения понятий философии науки. Во‑вторых, в рамках эпистемологии необходимо дополнить уточнить содержание понятия «научное открытие», ввиду того, что в современных технологических условиях новое знание может создаваться в сотрудничестве с ИИ‑агентами [AI for Scientific Discovery: Proceedings of a Workshop, 2024]. В‑третьих, с учетом того, что Большие языковые модели – это компьютерные модели глубокого обучения с большим набором параметров, обученные на объемных массивах данных, возникает вопрос в рамках философии математики о вычислимости научных открытий [Hinsen, 2014]. И, наконец, в‑четвертых, новые исследовательские методы остро ставят вопрос об этических аспектах работы ИИ‑исследователя (ученого, использующего в работе новые ИИ‑методы).
Очевидные плюсы использования технологий искусственного интеллекта в научных исследованиях можно свести к следующему перечню:
- Ускорение процесса исследований. ИИ позволяет анализировать большие объемы данных и проводить сложные вычисления гораздо быстрее, чем это было бы сделано с помощью традиционных методов. Такие возможности способствуют более быстрому обнаружению закономерностей, тенденций и новых корреляций в данных, что в общем и целом ускоряет процесс научных исследований.
- Автоматизация и оптимизация. ИИ способствует автоматизации многих рутинных процессов в ходе научных исследований, таких как обработка данных, создание моделей и прогнозирование результатов. Отдав часть интеллектуальных задач LLM, исследователи могут сосредоточиться на более творческих и стратегических задачах.
- Поиск новых решений и подходов. Благодаря возможностям машинного обучения и анализа данных ИИ способен разрабатывать новые подходы к решению проблем, которые могут быть недоступны для человека.
- Повышение точности и надежности. Использование ИИ в научных исследованиях повышает точность результатов и уменьшает вероятность ошибок. Алгоритмы машинного обучения могут обнаруживать скрытые закономерности и предсказывать результаты с высокой точностью, что способствует более надежным научным открытиям.
Интеграция различных дисциплин. ИИ позволяет объединять знания и методы из различных областей науки, что способствует междисциплинарным исследованиям и созданию новых концептуальных взаимосвязей между различными областями знания [AI for Scientific Discovery: Proceedings of a Workshop, 2024].
Далее рассмотрим, как меняется представление о природе научного открытия в случае применения вычислительных методов вообще и с применением LLM в частности.
2. Природа научного открытия и стратегии научного поиска
Трудно переоценить влияние роста и усложнения компьютерных технологий на методы научного поиска и принципы обнаружения новых фактов и природных явлений. Несмотря на то, что в традиционной философии науки понятие научного открытия связывалось не с нормативным следованием правилу и не с вычислениями, а, скорее, с творческим потенциалом исследователя, его иррациональной способностью переживать озарения, тем не менее сегодня существуют научные области, в которых открытия новых свойств объектов целиком зависят от свойств алгоритмов [Muntean, 2014].
Наука – это специфическая форма знаний, в которой данные и эксперименты играют фундаментальную роль в формировании гипотез относительно устройства мира. Дадим определение понятию «научное открытие». Научное открытие – это процесс или результат успешного научного исследования. Объектами такого процесса (результата) могут быть явления, события, процессы, причины, качества, а также теории, гипотезы и их характеристики [Schickore, 2020]. Традиционно принято отличать открытие озарение (иррациональный рывок) от открытия‑процесса, а также создание нового знания от его подтверждения и доказательства непротиворечивости.
Из этого различения вытекают два подхода, задающих критерии оценки научного метода:
- Генеративный подход – суждения теории следуют из наблюдений и экспериментов.
Консеквенциалистский подход – наблюдения и эксперименты задаются содержанием теоретических суждений [Nickles, 1988].
Основной принцип порождения и обоснования научного знания состоит в том, что исследователь постоянно связывает между собой момент озарения, логический процесс обобщения (который включает в себя концептуальную проработку фактов, имен и понятий и построение теоретических высказываний) и экспериментальную верификацию. Собственно, основные споры в философии науки идут вокруг этих трех компонентов: открытие, обобщение, проверка. В течение всего XX в. момент открытия выводился за границы объема понятий, связанных с чем‑либо импульсивно иррациональным. Логика научного открытия предписывала существование универсальных схематических стратегий рассуждений, приводящих к порождению нового знания.
Важно подчеркнуть, что вычисления и алгоритмическое решение исследовательских задач и компьютерное моделирование традиционно рассматривались как часть проверочных процедур, лежащих за областью эвристических процессов. Так как вычислительное представление знаний не имеет дела с фактами, но лишь со структурами данных и регулярными корреляциями внутри этих структур, то можно было бы утверждать, что момент исследовательского «прозрения» не имеет под собой оснований, выводимых из формальных или нормативных процедур. Следовательно, с этой точки зрения, правил, следование которым приводило бы к научным открытиям или решению любых исследовательских задач, не существует. Однако бурный рост производительной мощности компьютерной техники в XX в. приводит постепенно к убеждениям, согласно которым научное открытие понимается как нормативная процедура, редуцируемая к отношениям между «твердыми» данными и правилами интерпретации. Логика научного открытия требует наличия формальных общеприменимых правил, с помощью которых новые идеи могут быть механистически выведены из имеющихся данных. Повсеместно научные открытия стали производиться за счет механистических индуктивных обобщений [Boden, 2004, 209].
История развития теоретической и практической областей искусственного интеллекта знает множество примеров, когда научное открытие совершалось с помощью вычислительных эвристик за счет механистической работы операторов, преобразующих изначальное состояние системы в целевое состояние системы [Thagard, 2004]. В этом случае научное открытие понимается как эффективный способ решения задач в рамках проблемного поля, обладающего конечным набором конфигураций. Приращение нового научного знания происходит за счет выявления отличий между исходным и целевым состоянием. Стратегии построения научных исследований становятся ограниченными вычислимостью функции и алгоритмической разрешимостью. Ранняя критика применения ИИ‑методов в научных открытиях указывала на неспособность вычислительных систем изобретать новые понятия или выявлять новые объекты.
Тем не менее, со временем невозможно стало отрицать роль компьютерных методов искусственного интеллекта в интерпретации данных и в производстве нового. Но стоит указать на то, что влияние компьютерных подходов, как правило, понималось в контексте увеличения производительности труда ученого. Автоматизация научного исследования с ростом вычислительной мощности и сложности алгоритмов позволила триллионы рутинных дескриптивных и типологических операций отдать машинам. При этом стало возможным применение программ даже при анализе качества самих научных теорий. Например, «генетическое программирование способствует процессу научных открытий, позволяя автоматически создавать и совершенствовать научные теории посредством эвристического процесса поиска» [Addis et al., 2016, p. 83].
Некоторые авторы смотрят еще более оптимистично на возможность использования эволюционного вычисления для оптимизации параметров моделей, генерации новых идей и исследования сложных систем. В работе [Muntean, 2014] подчеркивается, что эволюционное вычисление может помочь ученым быстрее сосредотачиваться на интересующих явлениях и интерпретировать их значение. Авторы уверены, что эволюционное вычисление представляет собой перспективный инструмент для будущих научных проектов и может изменить природу научного открытия, став ключевым элементом на пути к информационной сингулярности, где искусственный интеллект будет конкурировать с людьми. Отметим, что указанные две работы написаны до так называемого LLM‑поворота в науке.
Возникает вопрос: изменилось ли что‑то радикально с момента революционного скачка в создании LLM? Может ли повлиять предсказательная способность модели на эпистемологические характеристики научного открытия?
Прежде всего, стоит указать на ключевые положения пессимистического взгляда на влияние LLM, неконтролируемое применение которых оказывает прямое воздействие на общую методологию научного исследования и на науку как на социальный институт. Основой критики со стороны ряда авторов [Birhane et al., 2023] относительно применения LLM в научных исследованиях является то, что «LLM генерируют прогнозы «статистически вероятных продолжений последовательностей слов» на основе грубого итеративного обучения на огромных массивах цифровых текстовых данных» [Там же, p. 277]. Возможность таких прогнозов вытекает из того, что модели используют базовое статистическое распределение ранее сгенерированного текста и далее происходит своеобразное «сшивание» векторизованных строк символов на основе вероятностей их совместного появления в ряде последовательностей. По мнению А. Бирхане с соавторами, LLM не хватает коммуникативно воплощенных и реляционных функций, которые являются предпосылкой научного мышления в прямом смысле слова. В связи с чем для современной науки возникают проблемы и риски, требующие новых правил и принципов урегулирования:
- Проблема точности и надежности. LLM могут «галлюцинировать» или генерировать неточный контент. Возникает вопрос, как ученые могут определять и выявлять ненадежные или непроверенные результаты.
- Замедленная реакция на изменения в науке. LLM не могут эффективно адаптироваться к быстро развивающимся мировым знаниям или распределению данных.
- Малоизученные объекты. LLM могут с трудом генерировать точный контент для редких или малоизученных явлений, что создает проблемы для информирования об аномалиях или новых открытиях.
- Добросовестность исследований. Плагиат и искажения фактов авторами в научных публикациях, созданных при помощи LLM, поднимают вопросы об авторской ответственности и аутентичности научного контента.
- Ответственность. Определение того, кто несет ответственность за добросовестность научных исследований и содержание статей, поддерживаемых LLM, является критически важным вопросом.
- Объяснимость и предвзятость. Непрозрачность принципов генерирования последовательностей токенов поднимает ряд вопросов: об интеграции новых знаний в общее предметное поле того или иного научного направления, о выявлении первоисточников и о потенциальных искажениях в полученных результатах.
- Экологические проблемы. LLM имеют значительный углеродный след, их широкое использование может отрицательно сказаться на глобальной экологической обстановке.
- Этические проблемы. Этот вид проблем связан c мерой ответственности за научный подлог, сгенерированный моделью [Birhane et al., 2023].
Иначе говоря, авторы призывают к устранению этих рисков посредством междисциплинарных дискуссий, адаптации публикационной политики и этических правил для повышения строгости и воспроизводимости научных исследований. Уже сегодня становится очевидным, что необходим сбалансированный подход к использованию LLM в науке. Необходимо продвижение в исследовательское сообщество идей, связанных с ответственным использованием, прозрачностью, ответственностью, а также постоянной оценкой влияния Больших языковых моделей на научную практику и результаты.
3. Примеры «открытий» методами Больших языковых моделей
Далее приведем несколько примеров эвристических прорывов, осуществленных методами LLM и охарактеризованных некоторыми представителями отрасли знания как научное открытие. Необходимо рассмотреть черты полученного нового знания, позволяющие делать подобные обобщения, и выявить также фундаментальные свойства научного открытия, которые недостижимы для LLM.
Пример 1.
В качестве примера рассмотрим результаты применения модели GPT‑4 в современных исследованиях по биоинформатике. Там, где прирост нового знания напрямую связан с обработкой и анализом данных, GPT‑4 демонстрирует высокую производительность. Модель может применяться как способ обработки сложного специального символьного биологического языка, как способ решения формальных или вычислительных задач по биоинформатике и как ассистент для обработки идей по биологическому дизайну [AI4Science. Microsoft Research, Quantum, Microsoft Azure, 2023]. Обширная база знаний по вычислительной биологии позволяет GPT‑4 строить нетривиальные рассуждения в рамках известных теорий. GPT‑4 способна интерпретировать информацию, извлеченную из специализированных файлов в биологических доменах, таких как формат MEME, формат FASTQ и формат VCF [Там же, p. 42]. Кроме того, модель отлично справляется с биоинформационным анализом с заданными параметрами. Например, прогнозирование сигнальных пептидов для заданной последовательности [Там же, p. 46]. После описания роли (модели предложили исполнить роль эксперта в области молекулярной генетики и биоинформатики) и постановки проблемы (определение наличия сигнальных пептидов в аминокислотной последовательности) исследователи получили цепочку рассуждений. Проведем аннотирование этих рассуждений:
GPT‑4: | Аннотирование |
Сигнальные пептиды представляют собой короткие последовательности аминокислот, которые направляют транспорт белков в определенные места в клетке. | Определение ключевого понятия и выявление основных функций. |
Эти последовательности обычно находятся на N‑конце белка и отщепляются, как только белок достигает места назначения. | Описание регулярных свойств. |
Чтобы идентифицировать сигнальный пептид в данной последовательности, мы можем искать определенные характеристики:
| Установление логической связи: если есть представители класса характеристик, то это признаки, полезные для идентификации искомой сущности. Перечисление характеристик идентификаторов, наличие которых является необходимым условием обнаружения сигнальных пептидов. |
При рассмотрении данной последовательности N‑концевая область (MKALRLSASALFCLLLINGLGA), по‑видимому, имеет положительно заряженную N‑область (MKALR), гидрофобное ядро (LSASALFCLLL) и C‑область, содержащую возможный сайт расщепления (INGLGA). Это указывает на присутствие потенциального сигнального пептида в этой последовательности. | Гипотеза и эмпирическое подтверждение гипотезы, основанное на условиях идентификации. |
С одной стороны, алгоритм формулирования и решения научной задачи выглядит классическим для биоинформатики, т. к. ключевым исследовательским объектом здесь являются нуклеиновые кислоты и белки, структура которых принципиально определяет свойства живых организмов и их частей, а предметом – алгоритмы обработки данных о структуре биологических макромолекул. Сам методологический инструментарий этой науки – результат роста вычислительной мощности и сложности алгоритмов обработки данных. С другой стороны, возникает вопрос, является ли генерирование подобного знания производством принципиально нового знания. Если научное открытие понимать как результат применения нормативных процедур, то, разумеется, да. Однако в формулировании представленной исследовательской задачи не хватает ключевого компонента – формулировки научной проблемы. В приведенном примере сложность состоит лишь в объемах вычислений; то, что нужно найти, является тем, что нужно вычислить. Важно также и то, что данная задача легко представима в виде компьютерной программы. Каждый шаг описания условий, гипотезы и этапов проверки легко формализуется. Мы попытались представить исследовательские результаты, полученные при помощи GPT‑4 [AI4Science. Microsoft Research, Quantum, Microsoft Azure, 2023], в виде технического задания для GPT‑4o 1. Удивительно, что LLM одинаково эффективно создавала код, который как обнаруживал сигнальный пептид, так и не обнаруживал. Пришлось строить диалог с системой, чтобы обнаружить ошибку в коде или в условиях задачи 2. Возникает трудный, на наш взгляд, вопрос, является ли научной проблемой та область неизвестного, поиск которого можно представить в виде компьютерной программы. Вместе с тем, что специфика работы LLM над концептуализацией и формализацией исследовательской проблемы требует тщательной аттестации и верификации со стороны экспертов.
Пример 2.
Разработчики из DeepMind представили методы использования LLM, в частности модели FunSearch, позволяющие более эффективно исследовать математические структуры [FunSearch: Making new discoveries in mathematical sciences using Large Language Models, 2023]. FunSearch работает, генерируя гипотезы и используя LLM для их проверки на основе известных математических принципов и данных. Процесс включает как создание новых идей, так и проверку их обоснованности с помощью обширных вычислительных методов. Одним из заметных достижений этого подхода является его способность решать проблемы, которые традиционно были сложными для систем ИИ. Например, FunSearch добилась значительного прогресса в таких областях, как теория узлов и теория представлений, обнаружив новые закономерности и связи, которые ранее были неизвестны. Сторонники этого подхода с энтузиазмом смотрят на новые возможности решения исследовательских задач, таких как: автоматизация доказательств, проверка и генерирование гипотез, выявление статистических и вероятностных закономерностей. Подчеркнем, что результаты, полученные при помощи LLM, могут быть как чисто прикладными, приводящими к тривиальному расширению за счет объемов и сложностей вычислений, так и эвристическими, открывающими невидимые ранее закономерности, подталкивающими исследователей к обнаружению новых связей и к нестандартным интерпретациям имеющихся данных.
Примером того, как прикладные вычисления при помощи LLM создают основания для реализации исследовательских эвристик, может служить случай использования AlphaTensor – системы ИИ, способной к поиску новых, эффективных алгоритмов для умножения матриц. AlphaTensor, основанная на AlphaZero, подходит к открытию алгоритмов как к однопользовательской игре. Исследуя огромное количество возможностей, AlphaTensor находит более эффективные методы умножения матриц, которые могут быть применены в различных областях, включая компьютерную графику, нейронные сети и научные вычисления [Fawzi et al., 2022]. Такой подход позволяет автоматизировать процесс обнаружения эффективных вычислительных решений для решения исследовательских задач. Пространство возможных алгоритмов велико, и в этом случае необходимо «развертывание» ИИ‑агента, способного огромное количество раз сыграть в однопользовательскую игру, целью которой является нахождение тензорных разложений в конечном факторном пространстве. Важно отметить, что приведение задачи к матричному виду считается равнозначным решению задачи. Считать ли такие нахождения решений (как, например, улучшение двухуровневого алгоритма Штрассена) научным открытием – вопрос, не имеющий однозначного ответа.
Выводы
За последние десятилетия вычислительный поворот в науке привел к тому, что трансформационные процессы затронули базовые эпистемологические принципы научного познания. Сегодня вычислительные методы представляют собой не просто способ усложнения и ускорения расчетов. Так называемый дата‑центризм лежит в основании методологического дизайна научных исследований, в связи с чем результаты вычислений и анализа данных понимаются как новые результаты научного познания. Большие языковые модели извлекают из огромных массивов неструктурированной информации новые концептуальные связи, которые в корне меняют механизмы организации научной деятельности. Формулирование исследовательских задач в виде математической дескрипции восходит к Галилею и в принципе проходит через все этапы становления современных естественных дисциплин. Анализ данных в настоящее время все чаще закладывается в дизайн эксперимента и в критерии применимости научной гипотезы. На наш взгляд, это важный вывод: оптимизация вычислительных задач лежит в основании современных открытий. Очевидно, что LLM повышают производительность труда исследователя, превращая в рутину разработку методологического каркаса. С помощью моделей можно быстро перебирать комбинации структурных компонентов методологии и решать чисто прикладные вычислительные задачи [Hope et al., 2023]. Вместе с тем, неочевиден ответ на вопрос, насколько правомерно считать сложные и быстрые комбинаторные вычисления, создание кода для формализации поисковой задачи или экстракцию последовательностей токенов из текстов элементами научного открытия. Непрозрачность принципов генерирования результирующих текстов, отсутствие субъектности и, следовательно, ответственности лишь обостряют этот вопрос.
1 https://colab.research.google.com/drive/1FH7Ba‑Zltcbd6A6l1gG0xU3vLlQp69F#scrollTo=6cB8lJHjlzxR&line=5&uniqifier=1.
2 Результаты этого диалога можно увидеть здесь: https://chatgpt.com/ share/52ffb917‑21dd‑45a4‑b036‑2680a62ceb78.
Исследование выполнено за счет гранта Российского научного фонда № 24‑28‑00540, https://rscf.ru/project/24‑28‑00540.
About the authors
Nikolaevich Pavel Baryshnikov
Pyatigorsk State University
Author for correspondence.
Email: pnbaryshnikov@pgu.ru
Doctor of science (in Philosophy), Assistant professor, Professor of the Department of Historical and Socio-Philosophical Disciplines, Oriental Studies and Theology
Russian Federation, PyatigorskReferences
- Addis M. et al. Computational Scientific Discovery and Cognitive Science Theories // Computing and Philosophy Synthese Library. Cham: Springer International Publishing, 2016. P. 83‑97.
- AI4Science. Microsoft Research, Quantum, Microsoft Azure. The Impact of Large Language Models on Scientific Discovery: a Preliminary Study using GPT‑4. URL: https://arxiv.org/abs/2311.07361 (дата обращения: 16.05.2024).
- Birhane A. et al. Science in the age of large language models // Nature Reviews Physics. 2023. Т. 5. № 5. P. 277‑280.
- Boden M. A. The creative mind: myths and mechanisms. London; New York: Routledge, 2004. Вып. 2nd ed. 344 p.
- Castelvecchi D. DeepMind AI outdoes human mathematicians on unsolved problem // Nature. 2024. Т. 625. № 7993. P. 12‑13.
- Fawzi A. et al. Discovering faster matrix multiplication algorithms with reinforcement learning // Nature. 2022. Т. 610. № 7930. P. 47‑53.
- Hinsen K. Computational science: shifting the focus from tools to models // F1000Res. 2014. Т. 3. P. 101.
- Hope T. et al. A Computational Inflection for Scientific Discovery // Commun. ACM. 2023. Т. 66. № 8. P. 62‑73.
- Muntean I. Computation and Scientific Discovery? A Bio‑Inspired Approach // Artificial Life 14. Proceedings of the Fourteenth International Conference on the Synthesis and Simulation of Living Systems, 2014.
- Nickles T. Truth or Consequences? Generative versus Consequential Justification in Science // PSA: Proceedings of the Biennial Meeting of the Philosophy of Science Association. 1988. Т. 1988. P. 393‑405.
- Park J. S. et al.Generative Agents: Interactive Simulacra of Human Behavior // 2023.
- Romera‑Paredes B. et al. Mathematical discoveries from program search with large language models // Nature. 2023.
- Schick T. et al. Toolformer: Language Models Can Teach Themselves to Use Tools // 2023.
- Schickore J. Scientific Discovery // The Stanford Encyclopedia of Philosophy; edited by E. N. Zalta, U. Nodelman: Metaphysics Research Lab, Stanford University, 2020. Вып. Fall 2020.
- Thagard P. Computing in the Philosophy of Science // The Blackwell guide to the philosophy of computing and information Blackwell philosophy guides; edited by L. Floridi. Malden, Mass.: Blackwell, 2004. Вып. 1. Publ. P. 307‑317.
- FunSearch: Making new discoveries in mathematical sciences using Large Language Models. URL: https://deepmind.google/discover/blog/funsearch‑making‑new‑discoveries‑in‑mathematical‑sciences‑usinglarge‑language‑models (дата обращения: 28.05.2024).
- AI for Scientific Discovery: Proceedings of a Workshop; edited by R. Pool. Washington, D.C.: National Academies Press, 2024. Вып. Science and Engineering Capacity Development Unit, Computer Science and Telecommunications Board, Policy and Global Affairs, Division on Engineering and Physical Sciences, National Academies of Sciences, Engineering, and Medicine.
- What is a large language model (LLM)? URL: https://www.elastic.co/ what‑is/large‑language‑models (дата обращения: 28.05.2024).
Supplementary files
