홈>
컴퓨터에서 Tensorflow를 시작하려고하는데 항상 "NUMA 노드를 식별 할 수 없습니다"오류 메시지가 나타납니다.
Conda 환경을 사용합니다 :
- tensorflow-GPU 1.12.0
- cudatoolkit 9.0
- cudnn 7.1.2
- nvidia-smi의 말 : 드라이버 버전 418.43, CUDA 버전 10.1
오류 코드는 다음과 같습니다.
>>> import tensorflow as tf
>>> tf.Session()
2019-04-04 09:56:59.851321: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: SSE4.1 SSE4.2 AVX AVX2 FMA
2019-04-04 09:56:59.950066: E tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:950] could not open file to read NUMA node: /sys/bus/pci/devices/0000:01:00.0/numa_node
Your kernel may have been built without NUMA support.
2019-04-04 09:56:59.950762: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1432] Found device 0 with properties:
name: GeForce GTX 750 Ti major: 5 minor: 0 memoryClockRate(GHz): 1.0845
pciBusID: 0000:01:00.0
totalMemory: 1.95GiB freeMemory: 1.84GiB
2019-04-04 09:56:59.950794: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1511] Adding visible gpu devices: 0
2019-04-04 09:59:45.338767: I tensorflow/core/common_runtime/gpu/gpu_device.cc:982] Device interconnect StreamExecutor with strength 1 edge matrix:
2019-04-04 09:59:45.338799: I tensorflow/core/common_runtime/gpu/gpu_device.cc:988] 0
2019-04-04 09:59:45.338810: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1001] 0: N
2019-04-04 09:59:45.339017: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1193] Could not identify NUMA node of platform GPU id 0, defaulting to 0. Your kernel may not have been built with NUMA support.
terminate called after throwing an instance of 'std::bad_alloc'
what(): std::bad_alloc
안타깝게도 오류 코드로 무엇을해야할지 모르겠습니다.
- 답변 # 1
관련 자료
- gradle 플랫폼을 대상으로 할 수 없음 - 도구 체인을 사용하는 'java se 11': 'jdk 8 (18)'
- python - "플랫폼 독립 라이브러리 를 찾을 수 없습니다"의 원인에 대한 진단이 올 바르며 어떻게 해결할 수 있습니까?
- exe - qtqpa 플러그인 - ""에서 qt 플랫폼 플러그인"windows"를 찾을 수 없습니다
- arch linux - Qt 플랫폼 플러그인"wayland"를 찾을 수 없습니다
- postgresql - 충돌시 삽입과 함께 "Json 유형에 대한 동등 연산자를 식별 할 수 없음"오류 발생
- android - 누구나이 앱이 계속 응답하지 않는 이유를 식별 할 수 있습니까?
관련 질문
- python : Keras 'model.predict () SoftMax 활성화 레이어가있는 바이너리의 출력을 제공합니다.
- python : 내 전사 학습 모델에서 K 폴드 크로스 유효성 검사를 어떻게 구현할 수 있습니까?
- Unsolved 'tensorflow.python.keras.utils.Generic_Utils'는 'populate_dict_with_module_objects'속성이 없습니다.
- python : TensorFlow : 사용자 정의 레이어를위한 루프 성능
- python : Keras 모델에서 첫 번째 N 레이어를 제거하는 방법은 무엇입니까?
- python : 왜 내 손실의 가치가 거대한가? Tensorflow에서 MLP를 실행합니다
- python : "레이어가 호출되지 않았으므로 keras layer.get_output_shape_at ()에 의해 Throw되는 예외를 해결하는 방법을 해결하는 방법은 무엇입니까?
- python : 훈련 할 데이터 세트의 첫 번째 샘플 만 사용하는 모델
- python : Keras 회귀 예측의 (1006,100) NUMPY 배열로 (1006,19)의 결과를 어떻게 재구성 할 수 있습니까?
- python : 기호 keras 입 /출력을 숫자 배열로 변환 할 수 없습니다. 깊은 학습 및 Keras 이미지 분류
새로운 콘다 환경으로 고칠 수 있습니다 :
호환 가능한 CUDA/TF 조합 표가 여기에 있습니다. 필자의 경우 cudatoolkit = 9.0과 tensorflow-gpu = 1.12의 조합으로 인해 std :: bad_alloc 오류가 발생했습니다. 그러나 cudatoolkit = 9.0 및 tensorflow-gpu = 1.11.0이 올바르게 작동합니다.