Если предположить, что LLM наподобие chatgpt работают как люди, то это называется jailbreak. Специальный промпт, позволяющий обойти встроенные проверки от недопустимых вопросов. Подбирается экспериментальным путём, затыкается новыми правилами для нейронки. После очередных экспериментов, находится снова.
no subject
Date: 2024-09-11 02:01 pm (UTC)