@@ -299,8 +299,8 @@ static results_perplexity perplexity_v2(llama_context * ctx, const common_params
299299 const llama_model * model = llama_get_model (ctx);
300300 const llama_vocab * vocab = llama_model_get_vocab (model);
301301
302- const bool add_bos = llama_vocab_add_bos (vocab);
303- GGML_ASSERT (!llama_vocab_add_eos (vocab));
302+ const bool add_bos = llama_vocab_get_add_bos (vocab);
303+ GGML_ASSERT (!llama_vocab_get_add_eos (vocab));
304304
305305 LOG_INF (" %s: tokenizing the input ..\n " , __func__);
306306
@@ -450,8 +450,8 @@ static results_perplexity perplexity(llama_context * ctx, const common_params &
450450 const llama_model * model = llama_get_model (ctx);
451451 const llama_vocab * vocab = llama_model_get_vocab (model);
452452
453- const bool add_bos = llama_vocab_add_bos (vocab);
454- GGML_ASSERT (!llama_vocab_add_eos (vocab));
453+ const bool add_bos = llama_vocab_get_add_bos (vocab);
454+ GGML_ASSERT (!llama_vocab_get_add_eos (vocab));
455455
456456 std::ofstream logits_stream;
457457 if (!params.logits_file .empty ()) {
@@ -1717,8 +1717,8 @@ static void kl_divergence(llama_context * ctx, const common_params & params) {
17171717 const int n_batch = params.n_batch ;
17181718 const int num_batches = (n_ctx + n_batch - 1 )/n_batch;
17191719 const int nv = 2 *((n_vocab + 1 )/2 ) + 4 ;
1720- const bool add_bos = llama_vocab_add_bos (vocab);
1721- GGML_ASSERT (!llama_vocab_add_eos (vocab));
1720+ const bool add_bos = llama_vocab_get_add_bos (vocab);
1721+ GGML_ASSERT (!llama_vocab_get_add_eos (vocab));
17221722
17231723 std::vector<uint16_t > log_probs_uint16 (size_t (n_ctx - 1 - n_ctx/2 ) * nv);
17241724 std::vector<float > kld_values (size_t (n_ctx - 1 - n_ctx/2 )*n_chunk);
0 commit comments