주메뉴바로가기
본문바로가기
동아사이언스
로그인
공지/이벤트
과학동아
어린이과학동아
수학동아
주니어
과학동아천문대
통합검색
뉴스
스페셜
D라이브러리
전체보기
뉴스
과학쇼핑
스페셜
d라이브러리
추천검색어
parameter
미터
파
매개 변수
매개변수
메개변수
파라메터
뉴스
'한국형 혁신 핵융합에너지 상용화' 논의 수면 위로
동아사이언스
l
2025.04.01
필요하다"고 강조했다. 윤시우 핵융합연 부원장은 '혁신형 핵융합로 도입에 따른 주요
파라미터
제안 및 단계별 추진 전략'을 발표했다. 윤 부원장은 기존 토카막 방식 핵융합 장치보다 작지만 성능이 뛰어난 '한국형 혁신 핵융합로'를 제안하고 개발에 필요한 핵심 기술을 설명했다. 혁신형 핵융합로 ... ...
원자력 AI에이전트 꿈꾸는 언어모델 'AtomicGPT' 공개
동아사이언스
l
2024.12.11
연구팀은 AtomicGPT를
파라미터
규모가 각각 80억 개, 700억 개인 두 가지 버전으로 개발했다.
파라미터
규모가 클수록 답변의 수준이 높아진다. 용도에 따라 소규모 버전은 빠르고 가벼운 검색에, 대규모 버전은 어려운 질의응답을 위해 사용된다. 연구팀은 AtomicGPT를 문서 업무 활용뿐 아니라 원전 ... ...
3.5mm 초소형 코일로 뇌 자극한다
동아사이언스
l
2024.12.04
제시한 결과”라며 “TMS 치료 시 병원을 주기적으로 방문하고 매번 코일과 자극
파라미터
설정을 위한 보정 작업이 필요했던 등의 단점을 극복할 수 있을 것” 이라고 설명했다. 연구 결과는 국제학술지 ‘뇌 자극’에 지난달 13일 표지논문으로 게재됐다. - 10.1016/j.brs.2024.10.001 연구 ... ...
[사이언스게시판] ETRI, 한국어 생성형 언어모델 공개 外
동아사이언스
l
2024.11.28
오픈소스 플랫폼인 '허깅페이스'에 공개했다고 28일 밝혔다. 연구팀이 개발한 30억개
파라미터
규모의 소형 언어모델은 한국어 데이터 비중이 높아 한국어 기반 숫자 연산 등에 적합하다. ■ 한국과학창의재단은 과학기술정보통신부와 과학영재 교육자들과 함께 성장하고 소통하기 위한 '2024년 ... ...
뉴스 더보기
스페셜
[과기원은 지금] 이상훈 DGIST 교수팀 전자약용 신경자극기 개발 外
동아사이언스
l
2022.10.26
로봇및기계전자공학과 교수 연구팀은 실시간으로 진폭, 주파수, 펄스폭 등의 신경자극
파라미터
를 조절할 수 있는 신경자극기를 개발했다고 25일 밝혔다. 바이오닉 사지나 외골격 로봇에 감각신경을 전달하거나 재활, 전자약 분야에도 활용할 수 있을 것으로 기대된다. 이번 연구는 국제학술지 ... ...
시속 1200km로 달리는 하이퍼루프 무선통신 환경 국산기술로 분석한다
동아사이언스
l
2022.05.18
새 기법을 개발했다. 각 구간의 전자기파 시뮬레이션을 수행하고 이를 ‘네트워크
파라미터
모델링’ 기법으로 연결하는 방식이다. 분석 결과 각 포드에서 신호 투과와 반사 등 다양한 신호 왜곡 현상이 실제로 일어나는 것으로 예측됐다. 다른 기지국에서 전송한 신호 중 일부가 여러 포드 구간을 ... ...
한국 주도 양자암호통신·클라우드 등 기술 4건 국제표준 채택 '초읽기'
동아사이언스
l
2021.12.13
분배 네트워크의 비즈니스 모델’ 표준과 ‘양자암호키 분배 네트워크 서비스품질
파라미터
’ 표준이다. 이들은 양자암호통신 네트워크 서비스의 시장 참여자별 비즈니스 모델을 제공하고 서비스의 품질 기준을 정의하고 있다. 이를 통해 양자암호통신 관련 사업모델과 응용서비스를 개발하고 ... ...
한국형 '초거대 AI' 개발에 산학연 머리 맞댄다
동아사이언스
l
2021.09.07
하반기 공개한다.
파라미터
양으로는 GPT-3의 3배에 해당한다. 내년 상반기에는 조 단위의
파라미터
를 갖춘 초거대 AI를 선보일 예정이다. KT는 내년 상반기를 목표로 한국전자통신연구원(ETRI), KAIST, 한양대와 초거대 AI 공동연구를 진행하고 있다. SK텔레콤은 국립국어원과 AI 한국어 모델인 ‘GLM’을 ... ...
스페셜 더보기
d라이브러리
[빅테크 기업들의 생성 AI 독주 속 START-UP 살아남는 방법] 뤼튼테크놀로지스
과학동아
l
2024년 02호
LLM)을 선보이고 있다. 성능이 좋은 LLM의 핵심은 다양한 변수를 처리할 수 있는 수많은
파라미터
수와 모델을 훈련시키는 학습 데이터의 양이다. 이 두 가지를 뒷받침할 자본이 많을수록 더 좋은 모델을 만들 수 있다. 때문에 인공지능(AI) 스타트업이 LLM을 만들어 빅테크 기업과 정면 승부하는 건 좋은 ... ...
[칼럼] AI 판사에게 꼭 필요한 능력은?
과학동아
l
2024년 02호
AI의 성능은
파라미터
가 좌우한다.
파라미터
는 AI 모델이 학습할 때 조정되는 가중치로,
파라미터
가 수천억 개 이상인 언어모델을 대규모 언어모델(LLM)이라고 한다. 챗GPT는 대규모 언어모델 중 하나인 GPT를 기반으로 작동하므로, 사람의 언어를 이해해 문장을 자유자재로 생성한다. 이런 이유로 ... ...
생성AI 2024 트렌드3 - 멀티모달・초거대・맞춤형
과학동아
l
2024년 01호
말했다. AI가 연산할 때 필요한 그래픽처리장치(GPU) 가격도 만만치 않다. 앞서
파라미터
가 AI를 더 똑똑하게 만들어주는 요소라면, GPU는 생성 AI가 더 빠르게 연산하는 데 중요한 역할을 한다. GPU 시장은 현재 시스템반도체 설계기업인 엔비디아가 독점하고 있다. 가격을 보면 엔비디아의 최고사양 ... ...
[특집] GPT-4의 4가지 가능성
과학동아
l
2023년 02호
커질 거란 추측이 있다. AI모델의 크기는 폭과 깊이로 측정하는데 이때 폭이 ‘매개변수(
파라미터
)’의 개수고 깊이는 ‘레이어’의 개수다. 딥러닝 모델은 복잡한 함수 식이다. 입력이 주어졌을 때 출력을 만드는 일련의 연산인 것이다. 매개변수는 이 복잡한 식을 구성하는 연산을 만드는 값이다. ... ...
d라이브러리 더보기
공지사항