Training Exam
훈련 시험
Sentence Examples
Discover more insights into Training Exam 훈련 시험
Keywords frequently search together with Training Exam 훈련 시험
Narrow sentence examples with built-in keyword filters
Training Exam sentence examples within candidate labels among
Partial label learning is an emerging weakly-supervised learning framework where each training example is associated with multiple candidate labels among which only one is valid.
부분 레이블 학습은 각 훈련 예제가 여러 후보 레이블과 연결되어 있으며 그 중 하나만 유효한 약한 감독 학습 프레임워크입니다.
부분 레이블 학습은 각 훈련 예제가 여러 후보 레이블과 연결되어 있으며 그 중 하나만 유효한 약한 감독 학습 프레임워크입니다.
Full Text
Partial label learning aims to induce a multi-class classifier from training examples where each of them is associated with a set of candidate labels, among which only one is the ground-truth label.
부분 레이블 학습은 각각이 후보 레이블 세트와 연결되어 있는 훈련 예제에서 다중 클래스 분류기를 유도하는 것을 목표로 하며 그 중 하나만 ground-truth 레이블입니다.
부분 레이블 학습은 각각이 후보 레이블 세트와 연결되어 있는 훈련 예제에서 다중 클래스 분류기를 유도하는 것을 목표로 하며 그 중 하나만 ground-truth 레이블입니다.
Full Text
Training Exam sentence examples within multi label learning
Partial multi-label learning (PML) deals with the problem where each training example is assigned multiple candidate labels, only a part of which are correct.
부분 다중 레이블 학습(PML)은 각 훈련 예제에 여러 후보 레이블이 할당되고 그 중 일부만 올바른 문제를 처리합니다.
부분 다중 레이블 학습(PML)은 각 훈련 예제에 여러 후보 레이블이 할당되고 그 중 일부만 올바른 문제를 처리합니다.
Full Text
Multi-label learning deals with training examples each represented by a single instance while associated with multiple class labels, and the task is to train a predictive model which can assign a set of proper labels for the unseen instance.
다중 레이블 학습은 여러 클래스 레이블과 연결되어 있는 동안 단일 인스턴스로 각각 표시되는 훈련 예제를 처리하며, 작업은 보이지 않는 인스턴스에 대해 적절한 레이블 세트를 할당할 수 있는 예측 모델을 훈련하는 것입니다.
다중 레이블 학습은 여러 클래스 레이블과 연결되어 있는 동안 단일 인스턴스로 각각 표시되는 훈련 예제를 처리하며, 작업은 보이지 않는 인스턴스에 대해 적절한 레이블 세트를 할당할 수 있는 예측 모델을 훈련하는 것입니다.
Full Text
Training Exam sentence examples within latent trust strength
Second, because there is only one training example to learn each parameter of latent trust strength, we further propose two regularization methods by building relations between latent trust strength and user preferences to guide the training process of latent trust strength.
둘째, 잠재 신뢰 강도의 각 파라미터를 학습하기 위한 훈련 예제가 하나뿐이므로 잠재 신뢰 강도 훈련 과정을 안내하기 위해 잠재 신뢰 강도와 사용자 선호도 간의 관계를 구축하여 두 가지 정규화 방법을 추가로 제안합니다.
둘째, 잠재 신뢰 강도의 각 파라미터를 학습하기 위한 훈련 예제가 하나뿐이므로 잠재 신뢰 강도 훈련 과정을 안내하기 위해 잠재 신뢰 강도와 사용자 선호도 간의 관계를 구축하여 두 가지 정규화 방법을 추가로 제안합니다.
Full Text
Training Exam sentence examples within Labeled Training Exam
This investigation is performed in a realistic scenario by taking into account verification latency -- the often overlooked fact that labeled training examples arrive with a delay.
이 조사는 검증 대기 시간을 고려하여 현실적인 시나리오에서 수행됩니다. 레이블이 지정된 학습 예제가 지연되어 도착한다는 사실을 종종 간과합니다.
이 조사는 검증 대기 시간을 고려하여 현실적인 시나리오에서 수행됩니다. 레이블이 지정된 학습 예제가 지연되어 도착한다는 사실을 종종 간과합니다.
Full Text
These algorithms are usually trained on large datasets consisting of thousands or millions of labeled training examples.
이러한 알고리즘은 일반적으로 수천 또는 수백만 개의 레이블이 지정된 훈련 예제로 구성된 대규모 데이터 세트에서 훈련됩니다.
이러한 알고리즘은 일반적으로 수천 또는 수백만 개의 레이블이 지정된 훈련 예제로 구성된 대규모 데이터 세트에서 훈련됩니다.
Full Text
Training Exam sentence examples within Limited Training Exam
Majority of fake news detection techniques are tested on small dataset containing limited training examples.
대부분의 가짜 뉴스 탐지 기술은 제한된 훈련 예제를 포함하는 작은 데이터 세트에서 테스트됩니다.
대부분의 가짜 뉴스 탐지 기술은 제한된 훈련 예제를 포함하는 작은 데이터 세트에서 테스트됩니다.
Full Text
Besides, we investigate how transfer learning can be used for structure learning with limited training examples and a source structure.
또한 제한된 훈련 예제와 소스 구조로 구조 학습에 전이 학습을 사용할 수 있는 방법을 조사합니다.
또한 제한된 훈련 예제와 소스 구조로 구조 학습에 전이 학습을 사용할 수 있는 방법을 조사합니다.
Full Text
Training Exam sentence examples within Otolaryngology Training Exam
To assess the effects of a novel integrative educational curriculum for residents by examining results from the otolaryngology training examination (OTE).
이비인후과 훈련 시험(OTE)의 결과를 조사하여 레지던트를 위한 새로운 통합 교육 커리큘럼의 효과를 평가합니다.
이비인후과 훈련 시험(OTE)의 결과를 조사하여 레지던트를 위한 새로운 통합 교육 커리큘럼의 효과를 평가합니다.
Full Text
OBJECTIVE
To examine the relationships among self-assessment of knowledge in otology via an individualized learning plan (ILP), otology milestone achievement rate, and otolaryngology training exam (OTE) otology scores.
목적
개별 학습 계획(ILP), 이비인후과 마일스톤 달성률, 이비인후과 훈련 시험(OTE) 이비인후과 점수를 통한 이비인후과 지식 자체 평가 간의 관계를 조사합니다.
목적 개별 학습 계획(ILP), 이비인후과 마일스톤 달성률, 이비인후과 훈련 시험(OTE) 이비인후과 점수를 통한 이비인후과 지식 자체 평가 간의 관계를 조사합니다.
Full Text
Training Exam sentence examples within Service Training Exam
METHODS
CTS residents' responses to the 2017 Thoracic Surgery Residents Association/Thoracic Surgery Directors Association In-Service Training Examination survey regarding the role of APPs in specific clinical scenarios and perception of APP contribution to residents' educational environment were analyzed.
행동 양식
특정 임상 시나리오에서 APP의 역할과 레지던트의 교육 환경에 대한 APP 기여 인식에 대한 2017년 흉부외과 레지던트협회/흉부외과 원장협회 현직 연수 시험 설문조사에 대한 CTS 레지던트의 응답을 분석했습니다.
행동 양식 특정 임상 시나리오에서 APP의 역할과 레지던트의 교육 환경에 대한 APP 기여 인식에 대한 2017년 흉부외과 레지던트협회/흉부외과 원장협회 현직 연수 시험 설문조사에 대한 CTS 레지던트의 응답을 분석했습니다.
Full Text
Specific to medical education, the use of gamification techniques has been shown to increase performance on a variety of fronts, including improvements in surgical techniques, surgical decision making, and increased knowledge retention on in-service training examinations.
의학 교육과 관련하여 게임화 기술의 사용은 외과 기술의 개선, 외과 의사 결정, 현직 훈련 시험에 대한 지식 보유 증가를 포함하여 다양한 면에서 성과를 향상시키는 것으로 나타났습니다.
의학 교육과 관련하여 게임화 기술의 사용은 외과 기술의 개선, 외과 의사 결정, 현직 훈련 시험에 대한 지식 보유 증가를 포함하여 다양한 면에서 성과를 향상시키는 것으로 나타났습니다.
Full Text
Training Exam sentence examples within New Training Exam
In light of this, we evaluated a variety of imbalanced techniques and proposed a novel word embedding-based synthetic minority over-sampling technique (WESMOTE), which synthesizes new training examples from the sentence representation based on word embeddings.
이에 우리는 다양한 불균형 기술을 평가하고 단어 임베딩을 기반으로 한 문장 표현에서 새로운 훈련 예를 합성하는 새로운 단어 임베딩 기반 합성 소수 오버 샘플링 기술(WESMOTE)을 제안했습니다.
이에 우리는 다양한 불균형 기술을 평가하고 단어 임베딩을 기반으로 한 문장 표현에서 새로운 훈련 예를 합성하는 새로운 단어 임베딩 기반 합성 소수 오버 샘플링 기술(WESMOTE)을 제안했습니다.
Full Text
Our approach successively identifies new training examples based on an informativeness measure for similarity vectors by considering their relationship to already classified vectors and the uncertainty in the similarity vector space covered by the current training set.
우리의 접근 방식은 이미 분류된 벡터와의 관계와 현재 훈련 세트가 다루는 유사성 벡터 공간의 불확실성을 고려하여 유사성 벡터에 대한 정보성 측정을 기반으로 새로운 훈련 예를 연속적으로 식별합니다.
우리의 접근 방식은 이미 분류된 벡터와의 관계와 현재 훈련 세트가 다루는 유사성 벡터 공간의 불확실성을 고려하여 유사성 벡터에 대한 정보성 측정을 기반으로 새로운 훈련 예를 연속적으로 식별합니다.
Full Text
Training Exam sentence examples within Negative Training Exam
In this study, we propose a novel distant supervision approach for relation extraction of binary treatment relationships such that high quality positive/negative training examples are generated from PubMed abstracts by leveraging associated MeSH subheadings.
이 연구에서 우리는 관련된 MeSH 부제목을 활용하여 PubMed 초록에서 고품질의 긍정적/부정적 훈련 예제가 생성되도록 이진 처리 관계의 관계 추출을 위한 새로운 원격 감독 접근 방식을 제안합니다.
이 연구에서 우리는 관련된 MeSH 부제목을 활용하여 PubMed 초록에서 고품질의 긍정적/부정적 훈련 예제가 생성되도록 이진 처리 관계의 관계 추출을 위한 새로운 원격 감독 접근 방식을 제안합니다.
Full Text
A key to our training methods is how to form positive and negative training examples with respect to the class label of a given image.
우리 훈련 방법의 핵심은 주어진 이미지의 클래스 레이블과 관련하여 긍정적이고 부정적인 훈련 예제를 구성하는 방법입니다.
우리 훈련 방법의 핵심은 주어진 이미지의 클래스 레이블과 관련하여 긍정적이고 부정적인 훈련 예제를 구성하는 방법입니다.
Full Text
Training Exam sentence examples within Single Training Exam
In this paper, we explore the problem of classification of handwritten digits from a single training example using a probabilistic approach based on the process in which characters are generated and learned by humans.
이 논문에서는 인간이 문자를 생성하고 학습하는 과정을 기반으로 한 확률적 접근 방식을 사용하여 단일 훈련 예제에서 필기 숫자를 분류하는 문제를 탐구합니다.
이 논문에서는 인간이 문자를 생성하고 학습하는 과정을 기반으로 한 확률적 접근 방식을 사용하여 단일 훈련 예제에서 필기 숫자를 분류하는 문제를 탐구합니다.
Full Text
In contrast to a convolutional neural network (CNN), such a filter can be configured by presenting a single training example and it can be applied on images of any size.
CNN(Convolutional Neural Network)과 달리 이러한 필터는 단일 훈련 예제를 제시하여 구성할 수 있으며 모든 크기의 이미지에 적용할 수 있습니다.
CNN(Convolutional Neural Network)과 달리 이러한 필터는 단일 훈련 예제를 제시하여 구성할 수 있으며 모든 크기의 이미지에 적용할 수 있습니다.
Full Text
Training Exam sentence examples within Paired Training Exam
We formulate this task as video-to-video translation problem in the absence of any paired training examples, since the manual labeling of such paired video-animation data is cost-expensive and even unrealistic in practice.
페어링된 비디오 애니메이션 데이터의 수동 레이블 지정은 비용이 많이 들고 실제로는 비현실적이기 때문에 페어링된 교육 예제가 없는 경우 이 작업을 비디오-비디오 번역 문제로 공식화합니다.
페어링된 비디오 애니메이션 데이터의 수동 레이블 지정은 비용이 많이 들고 실제로는 비현실적이기 때문에 페어링된 교육 예제가 없는 경우 이 작업을 비디오-비디오 번역 문제로 공식화합니다.
Full Text
Unsupervised image-to-image translation is the task of translating an image from one domain to another in the absence of any paired training examples and tends to be more applicable to practical applications.
Unsupervised image-to-image translation은 짝을 이루는 훈련 예제가 없는 상태에서 한 도메인에서 다른 도메인으로 이미지를 번역하는 작업이며 실제 응용 프로그램에 더 잘 적용되는 경향이 있습니다.
Unsupervised image-to-image translation은 짝을 이루는 훈련 예제가 없는 상태에서 한 도메인에서 다른 도메인으로 이미지를 번역하는 작업이며 실제 응용 프로그램에 더 잘 적용되는 경향이 있습니다.
Full Text
Training Exam sentence examples within Fewer Training Exam
This approach requires fewer training examples and achieves higher accuracy while maintaining invariance to rotations exactly.
이 접근 방식은 회전에 대한 불변성을 정확하게 유지하면서 더 적은 수의 훈련 예제를 필요로 하고 더 높은 정확도를 달성합니다.
이 접근 방식은 회전에 대한 불변성을 정확하게 유지하면서 더 적은 수의 훈련 예제를 필요로 하고 더 높은 정확도를 달성합니다.
Full Text
In our machine learning experiments, these models are able to learn faster than default training, achieving a comparable level of error in an order of magnitude fewer training examples.
우리의 기계 학습 실험에서 이러한 모델은 기본 교육보다 빠르게 학습할 수 있어 훨씬 적은 수의 교육 예제에서 비슷한 수준의 오류를 달성할 수 있습니다.
우리의 기계 학습 실험에서 이러한 모델은 기본 교육보다 빠르게 학습할 수 있어 훨씬 적은 수의 교육 예제에서 비슷한 수준의 오류를 달성할 수 있습니다.
Full Text
Training Exam sentence examples within Positive Training Exam
This improvement is stronger for diagnoses with a low prior and smaller number of positive training examples.
이 개선 사항은 사전 교육이 낮고 긍정적인 훈련 예제 수가 적은 진단에 더 강력합니다.
이 개선 사항은 사전 교육이 낮고 긍정적인 훈련 예제 수가 적은 진단에 더 강력합니다.
Full Text
Classification performance increased with training set size, reaching a plateau with over 200 positive training examples.
분류 성능은 훈련 세트 크기에 따라 증가하여 200개 이상의 긍정적인 훈련 예제가 있는 고원에 도달했습니다.
분류 성능은 훈련 세트 크기에 따라 증가하여 200개 이상의 긍정적인 훈련 예제가 있는 고원에 도달했습니다.
Full Text
Training Exam sentence examples within Available Training Exam
However, the softmax probabilities are not a true representation of model confidence and often misleading in feature space that may not be represented with the available training examples.
그러나 softmax 확률은 모델 신뢰도의 진정한 표현이 아니며 사용 가능한 훈련 예제로 표현되지 않을 수 있는 특징 공간에서 종종 오해의 소지가 있습니다.
그러나 softmax 확률은 모델 신뢰도의 진정한 표현이 아니며 사용 가능한 훈련 예제로 표현되지 않을 수 있는 특징 공간에서 종종 오해의 소지가 있습니다.
Full Text
However, the softmax probabilities are not a true representation of model confidence and often misleading in feature space that may not be represented with available training examples.
그러나 softmax 확률은 모델 신뢰도의 진정한 표현이 아니며 사용 가능한 훈련 예제로 표현되지 않을 수 있는 특징 공간에서 종종 오해의 소지가 있습니다.
그러나 softmax 확률은 모델 신뢰도의 진정한 표현이 아니며 사용 가능한 훈련 예제로 표현되지 않을 수 있는 특징 공간에서 종종 오해의 소지가 있습니다.
Full Text
Training Exam sentence examples within Representative Training Exam
A prerequisite for the application of deep learning is the availability of many representative training examples for the situation to be learned.
딥러닝을 적용하기 위한 전제 조건은 학습할 상황에 대한 많은 대표적인 훈련 사례의 가용성입니다.
딥러닝을 적용하기 위한 전제 조건은 학습할 상황에 대한 많은 대표적인 훈련 사례의 가용성입니다.
Full Text
In this paper, we address this problem through the development of a novel approach for system log analysis based on a markov random field (MRF) that can quickly categorize system log messages into multiple categories based on representative training examples provided by a user.
본 논문에서는 사용자가 제공한 대표적인 훈련 사례를 기반으로 시스템 로그 메시지를 여러 범주로 빠르게 분류할 수 있는 Markov Random Field(MRF) 기반 시스템 로그 분석을 위한 새로운 접근 방식을 개발하여 이 문제를 해결합니다.
본 논문에서는 사용자가 제공한 대표적인 훈련 사례를 기반으로 시스템 로그 메시지를 여러 범주로 빠르게 분류할 수 있는 Markov Random Field(MRF) 기반 시스템 로그 분석을 위한 새로운 접근 방식을 개발하여 이 문제를 해결합니다.
Full Text
Training Exam sentence examples within Additional Training Exam
Learning curves indicate model improvement may be achieved with additional training examples.
학습 곡선은 추가 학습 예제를 통해 모델 개선을 달성할 수 있음을 나타냅니다.
학습 곡선은 추가 학습 예제를 통해 모델 개선을 달성할 수 있음을 나타냅니다.
Full Text
Inspired by the recent progress of meta-learning, we combine a meta-learner with an image deformation sub-network that produces additional training examples, and optimize both models in an end-to-end manner.
최근 메타 학습의 발전에 영감을 받아 추가 학습 예제를 생성하는 이미지 변형 하위 네트워크와 메타 학습기를 결합하고 두 모델을 종단 간 방식으로 최적화합니다.
최근 메타 학습의 발전에 영감을 받아 추가 학습 예제를 생성하는 이미지 변형 하위 네트워크와 메타 학습기를 결합하고 두 모델을 종단 간 방식으로 최적화합니다.
Full Text
Training Exam sentence examples within Within Training Exam
Another approach uses recurrent neural networks to generate keyphrases from the semantic aspects of the text, but the inherently sequential nature precludes parallelization within training examples, and distances have limitations on context dependencies.
또 다른 접근 방식은 반복 신경망을 사용하여 텍스트의 의미론적 측면에서 키프레이즈를 생성하지만 본질적으로 순차적인 특성으로 인해 교육 예제 내에서 병렬화가 불가능하고 거리는 컨텍스트 종속성에 제한이 있습니다.
또 다른 접근 방식은 반복 신경망을 사용하여 텍스트의 의미론적 측면에서 키프레이즈를 생성하지만 본질적으로 순차적인 특성으로 인해 교육 예제 내에서 병렬화가 불가능하고 거리는 컨텍스트 종속성에 제한이 있습니다.
Full Text
To capture a user’s long-term preference in session-based recommendations, recurrent neural networks (RNN)-based models have been widely applied with impressive results, but the inherent sequential nature of RNNs prevents parallelism within training examples, which is critical in long sessions because memory constraints limit batching across instances.
세션 기반 추천에서 사용자의 장기적 선호도를 포착하기 위해 RNN(Recurrent Neural Network) 기반 모델이 널리 적용되어 인상적인 결과를 얻었지만 RNN의 고유한 순차적 특성은 긴 세션에서 중요한 훈련 예제 내에서 병렬 처리를 방지합니다. 메모리 제약이 인스턴스 간 일괄 처리를 제한하기 때문입니다.
세션 기반 추천에서 사용자의 장기적 선호도를 포착하기 위해 RNN(Recurrent Neural Network) 기반 모델이 널리 적용되어 인상적인 결과를 얻었지만 RNN의 고유한 순차적 특성은 긴 세션에서 중요한 훈련 예제 내에서 병렬 처리를 방지합니다. 메모리 제약이 인스턴스 간 일괄 처리를 제한하기 때문입니다.
Full Text
Training Exam sentence examples within Diverse Training Exam
However, combining different sampling strategies is complementary in generating sufficiently diverse training examples for the emotion classifiers.
그러나 서로 다른 샘플링 전략을 결합하는 것은 감정 분류기에 대한 충분히 다양한 훈련 예제를 생성하는 데 보완적입니다.
그러나 서로 다른 샘플링 전략을 결합하는 것은 감정 분류기에 대한 충분히 다양한 훈련 예제를 생성하는 데 보완적입니다.
Full Text
This poses challenges for training machine learning algorithms, such as deep convolutional networks, which often require large numbers of diverse training examples.
이는 종종 많은 수의 다양한 훈련 예제를 필요로 하는 심층 컨볼루션 네트워크와 같은 머신 러닝 알고리즘을 훈련하는 데 문제를 제기합니다.
이는 종종 많은 수의 다양한 훈련 예제를 필요로 하는 심층 컨볼루션 네트워크와 같은 머신 러닝 알고리즘을 훈련하는 데 문제를 제기합니다.
Full Text
Training Exam sentence examples within Synthesize Training Exam
As a proof of principle, images of 4 Hermite-Gaussian modes (HG00, HG01, HG10, and HG11) are numerically calculated via known solutions to the electromagnetic wave equation, and used to synthesize training examples.
원리 증명으로 4개의 Hermite-Gaussian 모드(HG00, HG01, HG10, HG11)의 이미지를 전자파 방정식에 대한 알려진 솔루션을 통해 수치적으로 계산하고 훈련 예제를 합성하는 데 사용합니다.
원리 증명으로 4개의 Hermite-Gaussian 모드(HG00, HG01, HG10, HG11)의 이미지를 전자파 방정식에 대한 알려진 솔루션을 통해 수치적으로 계산하고 훈련 예제를 합성하는 데 사용합니다.
Full Text
In contrast, we propose a generative model that can naturally learn from unsupervised examples, and synthesize training examples for unseen classes purely based on their class embeddings, and therefore, reduce the zero-shot learning problem into a supervised classification task.
대조적으로, 우리는 비지도 예제에서 자연스럽게 학습할 수 있는 생성 모델을 제안하고 순전히 클래스 임베딩에 기반하여 보이지 않는 클래스에 대한 훈련 예제를 합성하므로 제로샷 학습 문제를 감독 분류 작업으로 축소합니다.
대조적으로, 우리는 비지도 예제에서 자연스럽게 학습할 수 있는 생성 모델을 제안하고 순전히 클래스 임베딩에 기반하여 보이지 않는 클래스에 대한 훈련 예제를 합성하므로 제로샷 학습 문제를 감독 분류 작업으로 축소합니다.
Full Text
Training Exam sentence examples within Required Training Exam
For supervised approaches, as the number of concepts grows, so does the number of required training examples.
지도 접근 방식의 경우 개념의 수가 증가함에 따라 필요한 교육 예제의 수도 증가합니다.
지도 접근 방식의 경우 개념의 수가 증가함에 따라 필요한 교육 예제의 수도 증가합니다.
Full Text
This leads to better generalization and fewer required training examples for certain problems.
이것은 특정 문제에 대해 더 나은 일반화와 더 적은 수의 필요한 훈련 예제로 이어집니다.
이것은 특정 문제에 대해 더 나은 일반화와 더 적은 수의 필요한 훈련 예제로 이어집니다.
Full Text
Training Exam sentence examples within Relevant Training Exam
We introduce PUFFIN, a deep residual network-based computational approach that quantifies uncertainty in peptide-MHC affinity prediction that arises from observational noise and the lack of relevant training examples.
우리는 관찰 노이즈와 관련 훈련 예제의 부족으로 인해 발생하는 펩타이드-MHC 친화도 예측의 불확실성을 정량화하는 심층 잔류 네트워크 기반 계산 접근 방식인 PUFFIN을 소개합니다.
우리는 관찰 노이즈와 관련 훈련 예제의 부족으로 인해 발생하는 펩타이드-MHC 친화도 예측의 불확실성을 정량화하는 심층 잔류 네트워크 기반 계산 접근 방식인 PUFFIN을 소개합니다.
Full Text
It uses non-monotonic logical reasoning with incomplete commonsense domain knowledge, and inductive learning of previously unknown constraints on the domain’s states, to guide the construction of deep network models based on a small number of relevant training examples.
불완전한 상식적인 도메인 지식과 함께 비단조적인 논리적 추론과 도메인 상태에 대한 이전에 알려지지 않은 제약에 대한 귀납적 학습을 사용하여 소수의 관련 교육 예제를 기반으로 하는 심층 네트워크 모델의 구성을 안내합니다.
불완전한 상식적인 도메인 지식과 함께 비단조적인 논리적 추론과 도메인 상태에 대한 이전에 알려지지 않은 제약에 대한 귀납적 학습을 사용하여 소수의 관련 교육 예제를 기반으로 하는 심층 네트워크 모델의 구성을 안내합니다.
Full Text
Training Exam sentence examples within Les Training Exam
We verify that the model is able to achieve better accuracies with less training examples.
모델이 더 적은 훈련 예제로 더 나은 정확도를 달성할 수 있음을 확인합니다.
모델이 더 적은 훈련 예제로 더 나은 정확도를 달성할 수 있음을 확인합니다.
Full Text
By incorporating the two strategies into a unified framework, we provide a cost-effective approach to train class-conditional GANs, which achieves higher generation quality with less training examples.
두 전략을 통합 프레임워크에 통합함으로써 더 적은 훈련 예제로 더 높은 생성 품질을 달성하는 클래스 조건부 GAN을 훈련하는 비용 효율적인 접근 방식을 제공합니다.
두 전략을 통합 프레임워크에 통합함으로써 더 적은 훈련 예제로 더 높은 생성 품질을 달성하는 클래스 조건부 GAN을 훈련하는 비용 효율적인 접근 방식을 제공합니다.
Full Text
Training Exam sentence examples within U Training Exam
These enable us to effectively label all U training examples and conduct supervised shapelet discovery.
이를 통해 모든 U 교육 예제에 효과적으로 레이블을 지정하고 지도된 shapelet 발견을 수행할 수 있습니다.
이를 통해 모든 U 교육 예제에 효과적으로 레이블을 지정하고 지도된 shapelet 발견을 수행할 수 있습니다.
Full Text
Three raters (1 = orthopedic specialist, expert on fasciae; 2 = PRM resident; 3 = PRM specialist) with different levels of US training examined the abdominal muscles and fasciae of a healthy volunteer under supine resting and dynamic conditions following a standard US protocol.
다양한 수준의 미국 교육을 받은 3명의 평가자(1 = 정형외과 전문의, 근막 전문가, 2 = PRM 레지던트, 3 = PRM 전문가)가 표준 미국 프로토콜에 따라 앙와위 휴식과 동적 조건 하에서 건강한 지원자의 복부 근육과 근막을 검사했습니다.
다양한 수준의 미국 교육을 받은 3명의 평가자(1 = 정형외과 전문의, 근막 전문가, 2 = PRM 레지던트, 3 = PRM 전문가)가 표준 미국 프로토콜에 따라 앙와위 휴식과 동적 조건 하에서 건강한 지원자의 복부 근육과 근막을 검사했습니다.
Full Text
Training Exam sentence examples within One Training Exam
Second, because there is only one training example to learn each parameter of latent trust strength, we further propose two regularization methods by building relations between latent trust strength and user preferences to guide the training process of latent trust strength.
둘째, 잠재 신뢰 강도의 각 파라미터를 학습하기 위한 훈련 예제가 하나뿐이므로 잠재 신뢰 강도 훈련 과정을 안내하기 위해 잠재 신뢰 강도와 사용자 선호도 간의 관계를 구축하여 두 가지 정규화 방법을 추가로 제안합니다.
둘째, 잠재 신뢰 강도의 각 파라미터를 학습하기 위한 훈련 예제가 하나뿐이므로 잠재 신뢰 강도 훈련 과정을 안내하기 위해 잠재 신뢰 강도와 사용자 선호도 간의 관계를 구축하여 두 가지 정규화 방법을 추가로 제안합니다.
Full Text
Fill in the boxes in the internal nodes with letters so that exactly one training example and one testing example fall into each leaf.
정확히 하나의 훈련 예제와 하나의 테스트 예제가 각 잎에 들어가도록 내부 노드의 상자를 문자로 채웁니다.
정확히 하나의 훈련 예제와 하나의 테스트 예제가 각 잎에 들어가도록 내부 노드의 상자를 문자로 채웁니다.
Full Text
Training Exam sentence examples within Each Training Exam
Each training example has multiple labels, with a target label for each sub-model.
각 교육 예제에는 각 하위 모델에 대한 대상 레이블이 있는 여러 레이블이 있습니다.
각 교육 예제에는 각 하위 모델에 대한 대상 레이블이 있는 여러 레이블이 있습니다.
Full Text
Each training example consists of a noisy input image (training data) and the filter parameter value that produces the best output (training label).
각 훈련 예제는 잡음이 있는 입력 이미지(훈련 데이터)와 최상의 출력을 생성하는 필터 매개변수 값(훈련 레이블)으로 구성됩니다.
각 훈련 예제는 잡음이 있는 입력 이미지(훈련 데이터)와 최상의 출력을 생성하는 필터 매개변수 값(훈련 레이블)으로 구성됩니다.
Full Text
Training Exam sentence examples within Annotated Training Exam
, a classifier needs to be trained separately for each idiomatic expression of interest, often with the aid of annotated training examples.
, 분류기는 관심 있는 각 관용적 표현에 대해 별도로 훈련해야 하며, 종종 주석이 달린 훈련 예제의 도움을 받습니다.
, 분류기는 관심 있는 각 관용적 표현에 대해 별도로 훈련해야 하며, 종종 주석이 달린 훈련 예제의 도움을 받습니다.
Full Text
Despite the recent success of neural approaches for NLG, they are typically developed for particular domains with rich annotated training examples.
NLG에 대한 신경 접근 방식의 최근 성공에도 불구하고 일반적으로 주석이 달린 풍부한 훈련 예제가 있는 특정 도메인용으로 개발되었습니다.
NLG에 대한 신경 접근 방식의 최근 성공에도 불구하고 일반적으로 주석이 달린 풍부한 훈련 예제가 있는 특정 도메인용으로 개발되었습니다.
Full Text
Training Exam sentence examples within Every Training Exam
The proposed approach trains a neural network model on an auxiliary task in which every training example is associated with a different label (exemplar) and expanded to multiple images through a data augmentation technique.
제안된 접근 방식은 모든 훈련 예제가 다른 레이블(예제)과 연결되고 데이터 증강 기술을 통해 여러 이미지로 확장되는 보조 작업에서 신경망 모델을 훈련합니다.
제안된 접근 방식은 모든 훈련 예제가 다른 레이블(예제)과 연결되고 데이터 증강 기술을 통해 여러 이미지로 확장되는 보조 작업에서 신경망 모델을 훈련합니다.
Full Text
The main idea for improving classification performance of the Deep Forest is to assign weights to subsets of the class probability distributions at the leaf nodes computed for every training example.
Deep Forest의 분류 성능을 개선하기 위한 주요 아이디어는 모든 훈련 예제에 대해 계산된 리프 노드에서 클래스 확률 분포의 하위 집합에 가중치를 할당하는 것입니다.
Deep Forest의 분류 성능을 개선하기 위한 주요 아이디어는 모든 훈련 예제에 대해 계산된 리프 노드에서 클래스 확률 분포의 하위 집합에 가중치를 할당하는 것입니다.
Full Text
Training Exam sentence examples within Synthetic Training Exam
In this letter, we explore how the distribution of synthetic training examples affects the rate and reliability of the learned robot policy.
이 편지에서 우리는 합성 훈련 예제의 분포가 학습된 로봇 정책의 속도와 신뢰성에 어떻게 영향을 미치는지 탐구합니다.
이 편지에서 우리는 합성 훈련 예제의 분포가 학습된 로봇 정책의 속도와 신뢰성에 어떻게 영향을 미치는지 탐구합니다.
Full Text
For a given pulse sequence, we use its forward model to generate plausible, synthetic training examples that appear as if they were acquired in a scanner with that pulse sequence.
주어진 펄스 시퀀스에 대해 순방향 모델을 사용하여 해당 펄스 시퀀스가 있는 스캐너에서 획득한 것처럼 보이는 그럴듯한 합성 훈련 예제를 생성합니다.
주어진 펄스 시퀀스에 대해 순방향 모델을 사용하여 해당 펄스 시퀀스가 있는 스캐너에서 획득한 것처럼 보이는 그럴듯한 합성 훈련 예제를 생성합니다.
Full Text
Training Exam sentence examples within Sufficient Training Exam
However, due to the lack of sufficient training examples, classification of remote sensing images is more complex.
그러나 훈련 사례가 충분하지 않아 원격탐사 영상의 분류가 더 복잡하다.
그러나 훈련 사례가 충분하지 않아 원격탐사 영상의 분류가 더 복잡하다.
Full Text
A core challenge in action recognition from videos is obtaining sufficient training examples to train deep networks.
비디오에서 동작 인식의 핵심 과제는 심층 네트워크를 훈련시키기에 충분한 훈련 예제를 얻는 것입니다.
비디오에서 동작 인식의 핵심 과제는 심층 네트워크를 훈련시키기에 충분한 훈련 예제를 얻는 것입니다.
Full Text
Training Exam sentence examples within Existing Training Exam
To alleviate this problem, we first propose an algorithm to automatically mine extraction rules from existing training examples based on dependency parsing results.
이 문제를 완화하기 위해 먼저 종속성 구문 분석 결과를 기반으로 기존 학습 예제에서 추출 규칙을 자동으로 마이닝하는 알고리즘을 제안합니다.
이 문제를 완화하기 위해 먼저 종속성 구문 분석 결과를 기반으로 기존 학습 예제에서 추출 규칙을 자동으로 마이닝하는 알고리즘을 제안합니다.
Full Text
In order to reduce overfitting, neural networks are typically trained with data augmentation, the practice of artificially generating additional training data via label-preserving transformations of existing training examples.
과적합을 줄이기 위해 신경망은 일반적으로 기존 훈련 예제의 레이블 보존 변환을 통해 추가 훈련 데이터를 인위적으로 생성하는 방식인 데이터 증대로 훈련됩니다.
과적합을 줄이기 위해 신경망은 일반적으로 기존 훈련 예제의 레이블 보존 변환을 통해 추가 훈련 데이터를 인위적으로 생성하는 방식인 데이터 증대로 훈련됩니다.
Full Text
Few-shot learning aims to learn latent patterns from few training examples and has shown promises in practice.
Few-shot learning은 소수의 훈련 예제에서 잠재 패턴을 학습하는 것을 목표로 하며 실제로 약속을 보여주었습니다.
Few-shot learning은 소수의 훈련 예제에서 잠재 패턴을 학습하는 것을 목표로 하며 실제로 약속을 보여주었습니다.