From 83020214969061f04d714be1b85d9314f4b35077 Mon Sep 17 00:00:00 2001 From: groupuser Date: Wed, 28 May 2025 08:58:58 +0000 Subject: [PATCH] Update 1/model.py --- 1/model.py | 47 +++++++++++++++++++++++++++-------------------- 1 file changed, 27 insertions(+), 20 deletions(-) diff --git a/1/model.py b/1/model.py index 671ed52..363d072 100644 --- a/1/model.py +++ b/1/model.py @@ -18,9 +18,7 @@ class TritonPythonModel: self.model_path = self._get_config_parameter("model_path") self.enable_inference_trace = self._get_config_parameter("enable_inference_trace") - self.logger.log_info(f"model_name: {self.model_name}") self.logger.log_info(f"model_path: {self.model_path}") - self.logger.log_info(f"enable_inference_trace: {self.enable_inference_trace}") # Hugging Face Transformers 라이브러리에서 사전 학습된 토크나이저를 로드합니다. self.tokenizer = AutoTokenizer.from_pretrained(self.model_path) @@ -142,6 +140,15 @@ class TritonPythonModel: return generation_config def _get_config_parameter(self, parameter_name): + """ + 모델 설정(config.pbtxt)에서 특정 파라미터의 문자열 값을 가져옵니다. + + Args: + parameter_name (str): 가져올 파라미터의 이름. + + Returns: + str or None: 파라미터의 'string_value' 또는 해당 파라미터가 없거나 'string_value' 키가 없는 경우 None. + """ self.parameters = self.model_config.get('parameters', {}) parameter_dict = self.parameters.get(parameter_name) @@ -151,24 +158,24 @@ class TritonPythonModel: return None def _check_chat_template_support(self): - """ - 주어진 허깅페이스 Transformer 모델이 Chat 템플릿을 지원하는지 확인하고 결과를 출력합니다. - - Returns: - bool: Chat 템플릿 지원 여부 (True 또는 False). - """ - try: - if hasattr(self.tokenizer, "chat_template") and self.tokenizer.chat_template is not None: - self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저는 Chat 템플릿을 지원합니다.") - self.logger.log_info("Chat 템플릿 내용:") - self.logger.log_info(self.tokenizer.chat_template) - return True - else: - self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저는 Chat 템플릿을 직접적으로 지원하지 않거나, Chat 템플릿 정보가 없습니다.") - return False - except Exception as e: - self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저를 로드하는 동안 오류가 발생했습니다: {e}") - return False + """ + 주어진 허깅페이스 Transformer 모델이 Chat 템플릿을 지원하는지 확인하고 결과를 출력합니다. + + Returns: + bool: Chat 템플릿 지원 여부 (True 또는 False). + """ + try: + if hasattr(self.tokenizer, "chat_template") and self.tokenizer.chat_template is not None: + self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저는 Chat 템플릿을 지원합니다.") + self.logger.log_info("Chat 템플릿 내용:") + self.logger.log_info(self.tokenizer.chat_template) + return True + else: + self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저는 Chat 템플릿을 직접적으로 지원하지 않거나, Chat 템플릿 정보가 없습니다.") + return False + except Exception as e: + self.logger.log_info(f"'{self.model_name}' 모델의 토크나이저를 로드하는 동안 오류가 발생했습니다: {e}") + return False def _get_input_value(self, request, input_name: str, default=None):