Large Collections(대규모 컬렉션)란 무엇입니까?
Large Collections 대규모 컬렉션 - As a result, the performance of query execution over large collections of spatio-temporal data is often suboptimal. [1] In this work the problem of unsupervised outlier detection in large collections of data objects modeled by means of arbitrary multidimensional probability density functions is considered. [2] Only recently have molecular and genomics-based analyses enabled the creation of linkage maps, transcriptomes, and diversity analysis of large collections. [3] This work addresses the problem of learning from large collections of data with privacy guarantees. [4] We are interested in the widespread problem of clustering documents and finding topics in large collections of written documents in the presence of metadata and hyperlinks. [5] Large collections of paintings have been digitized by museums (e. [6] This process has been enabled in the Information Age by the advent of large collections of granular patient data, and the tools to query them. [7] We further demonstrate the merits of our formulation in document text classification task over large collections of documents. [8] These results highlight that some institutions, particularly larger institutions located at universities or cultural sector institutions, may be better supported in the curation, stewardship, and digitization of large collections, allowing long-term access to the associated biodiversity data. [9] Technology-assisted review (TAR) refers to human-in-the-loop active learning workflows for finding relevant documents in large collections. [10] As the quantity of data and wealth of different assays and applications continue to grow, the need for accurate and fast alignment tools that scale to large collections of reference sequences persists. [11] The past decade has seen rapidly growing interest in the use of language corpora (large collections of machine readable texts) for the purpose of determining the ordinary or plain meaning of terms in the areas of statutory and constitutional interpretation. [12] Modern face recognition biometrics widely rely on deep neural networks that are usually trained on large collections of wild face images of celebrities. [13] Quality-Diversity algorithms search for large collections of diverse and high-performing solutions, rather than just for a single solution like typical optimisation methods. [14] With FiberStars, researchers can analyze and compare multiple subjects in large collections of brain fibers using different views. [15] Indexing very large collections of strings, such as those produced by the widespread next generation sequencing technologies, heavily relies on multi-string generalization of the Burrows-Wheeler Transform (BWT): large requirements of in-memory approaches have stimulated recent developments on external memory algorithms. [16] ive summarization systems generally rely on large collections of document-summary pairs. [17] There were public, imperial, patriarchal, monastic, and private libraries, with not large collections of manuscripts. [18] Moreover, MONI was less than one thousandth the size of competing indexes for large collections of human chromosomes. [19] This paper formulates and studies a novel algorithm for federated learning from large collections of local datasets. [20] Topic models are widely used unsupervised models capable of learning topics – weighted lists of words and documents – from large collections of text documents. [21] Some studies indicate that using clustering algorithms to represent such data graphically can improve the speed and accuracy of finding potential instances of plagiarism in large collections of source-code files. [22] Large collections of coupled, heterogeneous agents can manifest complex dynamical behavior presenting difficulties for simulation and analysis. [23] Keyphrase extraction methods can provide insights into large collections of documents such as social media posts. [24] Such method is based in the approach formulated by Ananiadou and McNaught, who give a special relevance to the need to create and use natural language processing (NLP) tools, in order to extract information from large collections of documents, such as PubMed (www. [25] PURPOSE To accurately estimate the partial volume fraction of free water in the white matter from diffusion MRI acquisitions not demanding strong sensitizing gradients and/or large collections of different b-values. [26] Process model matching techniques are intended to assist experts in the management of such large collections, e. [27] Distinguishing among commercial varieties or accessions in a germplasm repository presents considerable challenges when dealing with common crops or large collections. [28] Our postchallenge efforts significantly improved performance by leveraging additional labeled data and using word vector representations learned from large collections of clinical notes. [29] The quest for greater insights into algorithm strengths and weaknesses, as revealed when studying algorithm performance on large collections of test problems, is supported by interactive visual analytics tools. [30]결과적으로 시공간 데이터의 대규모 컬렉션에 대한 쿼리 실행 성능은 종종 차선책입니다. [1] 이 작업에서는 임의의 다차원 확률 밀도 함수를 사용하여 모델링된 대규모 데이터 개체 컬렉션에서 감독되지 않은 이상값 감지 문제가 고려됩니다. [2] 최근에야 분자 및 유전체학 기반 분석을 통해 연결 지도, 전사체 및 대규모 컬렉션의 다양성 분석을 생성할 수 있게 되었습니다. [3] 이 작업은 개인 정보 보호가 보장된 대규모 데이터 컬렉션에서 학습하는 문제를 해결합니다. [4] 우리는 메타데이터와 하이퍼링크가 있는 상태에서 문서를 클러스터링하고 문서의 방대한 컬렉션에서 주제를 찾는 광범위한 문제에 관심이 있습니다. [5] 많은 그림 컬렉션이 박물관에서 디지털화되었습니다(예: [6] 이 프로세스는 세분화된 환자 데이터의 대규모 수집과 이를 쿼리하는 도구의 출현으로 정보화 시대에 가능하게 되었습니다. [7] 우리는 더 많은 문서 모음에 대한 문서 텍스트 분류 작업에서 공식화의 장점을 보여줍니다. [8] 이러한 결과는 일부 기관, 특히 대학이나 문화 부문 기관에 위치한 대규모 기관이 관련 생물다양성 데이터에 대한 장기적 접근을 허용하는 대규모 컬렉션의 큐레이션, 관리 및 디지털화에서 더 잘 지원될 수 있음을 강조합니다. [9] 기술 지원 검토(TAR)는 대규모 컬렉션에서 관련 문서를 찾기 위한 인간-인-더-루프(human-in-the-loop) 능동적 학습 워크플로를 나타냅니다. [10] 데이터의 양과 다양한 분석 및 응용 프로그램이 계속 증가함에 따라 참조 서열의 대규모 컬렉션으로 확장할 수 있는 정확하고 빠른 정렬 도구에 대한 필요성이 지속되고 있습니다. [11] 지난 10년 동안 법률 및 헌법 해석 영역에서 용어의 평범하거나 평범한 의미를 결정하기 위한 목적으로 언어 말뭉치(기계가 읽을 수 있는 텍스트의 큰 모음) 사용에 대한 관심이 급증했습니다. [12] 현대의 얼굴 인식 생체 인식은 일반적으로 유명인의 야생 얼굴 이미지의 대규모 컬렉션에 대해 훈련되는 심층 신경망에 광범위하게 의존합니다. [13] 품질-다양성 알고리즘은 일반적인 최적화 방법과 같은 단일 솔루션이 아니라 다양한 고성능 솔루션의 대규모 컬렉션을 검색합니다. [14] FiberStars를 통해 연구자들은 다양한 관점을 사용하여 방대한 뇌 섬유 컬렉션에서 여러 주제를 분석하고 비교할 수 있습니다. [15] 광범위한 차세대 시퀀싱 기술로 생성된 것과 같은 매우 큰 문자열 컬렉션을 인덱싱하는 것은 BWT(Burrows-Wheeler Transform)의 다중 문자열 일반화에 크게 의존합니다. 알고리즘. [16] ive 요약 시스템은 일반적으로 문서-요약 쌍의 대규모 컬렉션에 의존합니다. [17] 공공 도서관, 제국 도서관, 가부장제 도서관, 수도원 도서관, 사립 도서관이 있었고 필사본이 많지 않았습니다. [18] 더욱이 MONI는 인간 염색체의 대규모 컬렉션에 대한 경쟁 인덱스의 1000분의 1 미만이었습니다. [19] 이 논문은 대규모 로컬 데이터 집합에서 연합 학습을 위한 새로운 알고리즘을 공식화하고 연구합니다. [20] 주제 모델은 많은 텍스트 문서 모음에서 주제(단어 및 문서의 가중치 목록)를 학습할 수 있는 비지도 모델로 널리 사용됩니다. [21] 일부 연구에 따르면 클러스터링 알고리즘을 사용하여 이러한 데이터를 그래픽으로 표현하면 대규모 소스 코드 파일 모음에서 잠재적인 표절 사례를 찾는 속도와 정확성이 향상될 수 있습니다. [22] 결합된 이질적인 에이전트의 대규모 컬렉션은 시뮬레이션 및 분석에 어려움을 나타내는 복잡한 동적 동작을 나타낼 수 있습니다. [23] Keyphrase 추출 방법은 소셜 미디어 게시물과 같은 대규모 문서 컬렉션에 대한 통찰력을 제공할 수 있습니다. [24] 이러한 방법은 PubMed(www.PubMed)와 같은 대규모 문서 컬렉션에서 정보를 추출하기 위해 자연어 처리(NLP) 도구를 만들고 사용할 필요성에 특별한 관련성을 부여한 Ananiadou와 McNaught가 공식화한 접근 방식을 기반으로 합니다. [25] 목적 강한 과민성 구배 및/또는 다양한 b-값의 대규모 수집을 요구하지 않는 확산 MRI 획득에서 백질 내 자유수의 부분 부피 분율을 정확하게 추정하기 위해. [26] 프로세스 모델 매칭 기술은 이러한 대규모 컬렉션의 관리 전문가를 지원하기 위한 것입니다. [27] 생식질 리포지토리에서 상업적 품종 또는 등록품을 구별하는 것은 일반적인 작물이나 대규모 수집품을 다룰 때 상당한 어려움을 나타냅니다. [28] 우리의 챌린지 후 노력은 추가 레이블 데이터를 활용하고 대규모 임상 노트 컬렉션에서 학습한 단어 벡터 표현을 사용하여 성능을 크게 향상시켰습니다. [29] 대규모 테스트 문제 모음에 대한 알고리즘 성능을 연구할 때 밝혀진 바와 같이 알고리즘의 강점과 약점에 대한 더 큰 통찰력을 찾기 위한 탐구는 대화형 시각적 분석 도구에 의해 지원됩니다. [30]
Require Large Collections 대규모 컬렉션 필요
Most music source separation systems require large collections of isolated sources for training, which can be difficult to obtain. [1] However, targeting even only the most clinically relevant strains of pathogenic bacteria requires large collections of well characterized phages, whose specificity would cover all such strains. [2] However, these models require large collections of click-through data that are not available in some domains. [3]대부분의 음원 분리 시스템은 훈련을 위해 격리된 음원의 대규모 컬렉션을 필요로 하며 이는 확보하기 어려울 수 있습니다. [1] 그러나, 병원성 박테리아의 가장 임상적으로 관련된 균주만 표적으로 하기 위해서는 특성이 잘 규명된 파지의 대규모 컬렉션이 필요하며, 그 특이성은 그러한 모든 균주를 포괄할 것입니다. [2] nan [3]
Two Large Collections 두 개의 큰 컬렉션
We analyze two large collections of documents, representing legal opinions and scientific articles. [1] We then analyse two large collections of functional-response data sets to show that non-independence is pervasive and borne out in previously hidden forms of density dependence. [2] Based on two large collections (Paris, Musée du Louvre and Musée des Arts Décoratifs), this article aims to relocate them in their likely ritual contexts, especially those developed in the late Qajar period (from 1850 onward), and to look further into the past of their Safavid (1501–1722) models. [3]우리는 법적 의견과 과학 기사를 나타내는 두 가지 큰 문서 모음을 분석합니다. [1] 그런 다음 우리는 비독립성이 만연하고 이전에 숨겨진 형태의 밀도 의존성에서 입증되었음을 보여주기 위해 두 개의 대규모 기능 응답 데이터 세트를 분석합니다. [2] nan [3]
Manage Large Collections
In this paper, we show how the J-CO Framework, a novel framework that we developed at the University of Bergamo (Italy) to manage large collections of JSON documents, is a unique and innovative tool that provides analysts with querying capabilities based on fuzzy sets over JSON data sets. [1] We demonstrate that the hierarchical architecture can be used to manage large collections of microgrids. [2]이 백서에서는 JSON 문서의 대규모 컬렉션을 관리하기 위해 Bergamo 대학(이탈리아)에서 개발한 새로운 프레임워크인 J-CO Framework가 어떻게 분석가에게 퍼지 기반 쿼리 기능을 제공하는 독특하고 혁신적인 도구인지 보여줍니다. JSON 데이터 세트에 대한 세트입니다. [1] nan [2]
Storing Large Collections
Unfortunately, these algorithms require storing large collections of such samples which can become prohibitive depending on the desired solution quality, properties of the diffusion process and seed set size. [1] RESULTS We present a highly compressed filesystem that specializes in storing large collections of genomes and reads. [2]불행히도, 이러한 알고리즘은 원하는 솔루션 품질, 확산 프로세스의 속성 및 시드 세트 크기에 따라 금지될 수 있는 이러한 샘플의 대규모 컬렉션을 저장해야 합니다. [1] nan [2]
Within Large Collections 대규모 컬렉션 내
Information retrieval is finding material of unstructured nature within large collections stored on computers. [1] Nowadays, recommender systems have become essential to users for finding “what they need” within large collections of items. [2]정보 검색은 컴퓨터에 저장된 대규모 컬렉션에서 구조화되지 않은 성격의 자료를 찾는 것입니다. [1] 오늘날, 추천 시스템은 사용자가 방대한 항목 컬렉션 내에서 "필요한 것"을 찾는 데 필수적인 요소가 되었습니다. [2]
Contain Large Collections 대규모 컬렉션 포함
Public databases such as the National Center for Biotechnology Information (NCBI) contain large collections of gene expression data from various cattle tissues that can be used in gene expression analysis research Aims This study was conducted to investigate patterns of transcriptome variation across tissues of cattle through large-scale identification of housekeeping genes (i. [1] From citation organizations, EMRI contains large collections of information of relevance to EBM and are widely cited across 171 organizations in Iran. [2]NCBI(National Center for Biotechnology Information)와 같은 공공 데이터베이스에는 유전자 발현 분석 연구에 사용할 수 있는 다양한 소 조직의 유전자 발현 데이터가 많이 포함되어 있습니다. 목표 이 연구는 하우스키핑 유전자(i. [1] 인용 기관의 EMRI에는 EBM과 관련된 방대한 정보 모음이 포함되어 있으며 이란의 171개 기관에서 널리 인용되고 있습니다. [2]