博客
关于我
Linux phpMyAdmin 导入大文件
阅读量:124 次
发布时间:2019-02-26

本文共 673 字,大约阅读时间需要 2 分钟。

我们用phpMyAdmin导入SQL文件的时候,一般最大不会超过64M,但是有时很多情况下导入SQL文件都超过了64M,所以需要我们重新配置下phpmyadmin

一、修改 phpMyAdmin 配置文件

修改 config.inc.php,有的版本可能只有config.sample.inc.php,可以复制一份重命名为 config.inc.php。

将其中的:    $cfg['UploadDir'] = ' ';修改为:    $cfg['UploadDir'] = 'ImportFile';

这里写图片描述

二、在phpMyAdmin 下新建立一个目录名称为 ImportFile,并将 SQL文件放到这个目录

[root@iZbp1bhgh25pacaj2ffmp2Z phpmyadmin]# mkdir ImportFile[root@iZbp1bhgh25pacaj2ffmp2Z phpmyadmin]# cd ImportFile/[root@iZbp1bhgh25pacaj2ffmp2Z ImportFile]# lsbajie20.sql[root@iZbp1bhgh25pacaj2ffmp2Z ImportFile]# du -sh bajie20.sql 104M    bajie20.sql

这里写图片描述

三、重新登录phpMyAdmin,导入SQL

这里写图片描述

备注:只有我们将 SQL文件放到服务器的目录里面,才会显示后面的选择框


扩展

MySQL 设置数据库表名不区分大小写

[mysqld]lower_case_table_names=1
你可能感兴趣的文章
NiuShop开源商城系统 SQL注入漏洞复现
查看>>
NI笔试——大数加法
查看>>
NLog 自定义字段 写入 oracle
查看>>
NLog类库使用探索——详解配置
查看>>
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>
NLP 时事和见解【2023】
查看>>
NLP 模型中的偏差和公平性检测
查看>>
Vue3.0 性能提升主要是通过哪几方面体现的?
查看>>
NLP 项目:维基百科文章爬虫和分类【01】 - 语料库阅读器
查看>>
NLP_什么是统计语言模型_条件概率的链式法则_n元统计语言模型_马尔科夫链_数据稀疏(出现了词库中没有的词)_统计语言模型的平滑策略---人工智能工作笔记0035
查看>>
NLP、CV 很难入门?IBM 数据科学家带你梳理
查看>>
NLP三大特征抽取器:CNN、RNN与Transformer全面解析
查看>>
NLP入门(六)pyltp的介绍与使用
查看>>
NLP学习笔记:使用 Python 进行NLTK
查看>>
NLP度量指标BELU真的完美么?
查看>>
NLP的不同研究领域和最新发展的概述
查看>>
NLP的神经网络训练的新模式
查看>>
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>