홈>
특히 백업 및 마이그레이션을 사용하여 큰 데이터베이스 파일에서 복원 할 때 로컬 ddev 인스턴스에 큰 파일을 업로드 할 때 "413 Request Entity Too Large"오류가 발생합니다.
ddev 1.5.1, PHP 7.1, nginx 1.15.3 및 Drupal 7.60을 사용하고 있습니다. 설명서에 나와있는 것처럼 사용자 정의 nginx 구성을 제공하려고 시도했지만 시도한 것이 아무것도 없습니다. 인터넷 검색에서 문제는 client_max_body_size가 너무 낮지 만 그 값을 두 배로 늘리려 고했지만 아무것도 효과가 없다는 것입니다. d7 구성을 복사하고 client_max_body_size 줄에 추가하고 프로젝트를 다시 시작했지만 여전히 오류가 발생합니다.
- 답변 # 1
트렌드
- OpenCv의 폴더에서 여러 이미지 읽기 (python)
- 파이썬 셀레늄 모든 "href"속성 가져 오기
- html - 자바 스크립트 - 클릭 후 변경 버튼 텍스트 변경
- javascript - 현재 URL에서 특정 div 만 새로 고침/새로 고침
- JSP에 대한 클래스를 컴파일 할 수 없습니다
- git commit - 자식 - 로컬 커밋 된 파일에 대한 변경을 취소하는 방법
- jquery - JavaScript로 현재 세션 값을 얻으시겠습니까?
- JavaScript 변수를 HTML div에 '출력'하는 방법
- javascript - swiperjs에서 정지, 재생 버튼 추가
- python - 문자열에서 특정 문자 제거
먼저이 문제의 경우, 특히 100MB 업로드에 대해 backup_migrate를 사용하고 싶지 않습니다. 와이즈 비즈 행복하게 backup_migrate * .mysql.gz 파일을 받아들이고 훨씬 더 빠르며 사용자 정의 구성이 필요하지 않습니다. 와이즈 비즈
그러나 당신이하려는 방식으로하려면 nginx-site.conf와 php를 재정의해야합니다.
"서버"섹션의 .ddev/nginx-site.conf에ddev import-db
를 추가하십시오. 당신은 1GB의를 범프하려는 경우. (문서의 nginx 사용자 정의 구성을 참조하십시오..ddev/php/bigpost.ini (이름은 임의적이며 문서를 참조하십시오)에서 다음을 원할 것입니다 :
그런 다음
todayclient_max_body_size 1000M;
그리고post_max_size = 1000M upload_max_filesize = 1000M
업로드 크기가 개선 된 것을 확인할 수 있습니다.오래 진행된 TUS 파일 업로드를 디버깅하려고 할 때 오늘도 같은 문제가 발생했습니다. 분명히 문제는 반드시 ddev 웹 컨테이너가 아니라 nginx ddev-router 컨테이너에있는 것입니다. 여기서 요청 크기도 100m (client_max_body_size 100m)으로 제한됩니다.
다음 단계를 수행하여이 문제를 일시적으로 무시할 수 있습니다. - ddev 라우터 용기에 SSH -/app/nginx.tmpl을 편집하고 더 높은 클라이언트 max_body_size를 설정하십시오. - 재개 라우터 컨테이너
이 작업은 모든 ddev 컨테이너를 제거하거나 마지막 활성 ddev 프로젝트를 제거 할 때까지 작동합니다.
ddev rm