如果您对提高SQLite每秒INSERT的性能感兴趣,那么这篇文章一定是您不可错过的。我们将详细讲解提高SQLite每秒INSERT的性能的各种细节,此外还有关于.net–使用DapperORM提高S
如果您对提高SQLite每秒INSERT的性能感兴趣,那么这篇文章一定是您不可错过的。我们将详细讲解提高SQLite每秒INSERT的性能的各种细节,此外还有关于.net – 使用Dapper ORM提高SQLite批量插入的性能、c – 使用back_inserter()或inserter()提高std :: copy()的效率、Insertion Sort 与 Merge Sort的性能比较(Java)、Kotlin SQLite“(代码1 SQLITE_ERROR):,同时编译:INSERT INTO”的实用技巧。
本文目录一览:- 提高SQLite每秒INSERT的性能
- .net – 使用Dapper ORM提高SQLite批量插入的性能
- c – 使用back_inserter()或inserter()提高std :: copy()的效率
- Insertion Sort 与 Merge Sort的性能比较(Java)
- Kotlin SQLite“(代码1 SQLITE_ERROR):,同时编译:INSERT INTO”
提高SQLite每秒INSERT的性能
优化SQLite是棘手的。C应用程序的大容量插入性能可以从每秒85次插入到每秒96,000次以上插入!
背景:我们正在将SQLite用作桌面应用程序的一部分。我们将大量配置数据存储在XML文件中,这些文件会被解析并加载到SQLite数据库中,以便在初始化应用程序时进行进一步处理。SQLite非常适合这种情况,因为它速度快,不需要专门的配置,并且数据库作为单个文件存储在磁盘上。
基本原理: 最初,我对看到的性能感到失望。事实证明,取决于数据库的配置方式和使用API的方式,SQLite的性能可能会发生很大的变化(对于大容量插入和选择而言)。弄清楚所有选项和技术是什么都不是一件容易的事,因此,我认为创建此社区Wiki条目与读者共享结果以节省其他人的麻烦是审慎的做法。
实验:我认为,最好是编写一些C代码并实际衡量各种选择的影响,而不是简单地谈论一般意义上的性能提示(即“使用事务!”)。我们将从一些简单的数据开始:
28 MB TAB分隔的文本文件(约865,000条记录),用于多伦多市的完整运输时间表
我的测试计算机是运行Windows XP的3.60 GHz P4。
使用Visual C ++ 2005将代码编译为“发布”,“完全优化”(/ Ox)和“最爱快速代码”(/ Ot)。
我正在使用直接编译到测试应用程序中的SQLite“合并”。我刚好拥有的SQLite版本(3.6.7)有点旧,但是我怀疑这些结果将与最新版本相当(如果您另有意见,请发表评论)。
让我们写一些代码!
代码:一个简单的C程序,它逐行读取文本文件,将字符串拆分为值,然后将数据插入SQLite数据库。在此“基准”版本的代码中,创建了数据库,但实际上不会插入数据:
/************************************************************* Baseline code to experiment with SQLite performance. Input data is a 28 MB TAB-delimited text file of the complete Toronto Transit System schedule/route info from http://www.toronto.ca/open/datasets/ttc-routes/**************************************************************/#include <stdio.h>#include <stdlib.h>#include <time.h>#include <string.h>#include "sqlite3.h"#define INPUTDATA "C:\\TTC_schedule_scheduleitem_10-27-2009.txt"#define DATABASE "c:\\TTC_schedule_scheduleitem_10-27-2009.sqlite"#define TABLE "CREATE TABLE IF NOT EXISTS TTC (id INTEGER PRIMARY KEY, Route_ID TEXT, Branch_Code TEXT, Version INTEGER, Stop INTEGER, Vehicle_Index INTEGER, Day Integer, Time TEXT)"#define BUFFER_SIZE 256int main(int argc, char **argv) { sqlite3 * db; sqlite3_stmt * stmt; char * sErrMsg = 0; char * tail = 0; int nRetCode; int n = 0; clock_t cStartClock; FILE * pFile; char sInputBuf [BUFFER_SIZE] = "\0"; char * sRT = 0; /* Route */ char * sBR = 0; /* Branch */ char * sVR = 0; /* Version */ char * sST = 0; /* Stop Number */ char * sVI = 0; /* Vehicle */ char * sDT = 0; /* Date */ char * sTM = 0; /* Time */ char sSQL [BUFFER_SIZE] = "\0"; /*********************************************/ /* Open the Database and create the Schema */ sqlite3_open(DATABASE, &db); sqlite3_exec(db, TABLE, NULL, NULL, &sErrMsg); /*********************************************/ /* Open input file and import into Database*/ cStartClock = clock(); pFile = fopen (INPUTDATA,"r"); while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); sRT = strtok (sInputBuf, "\t"); /* Get Route */ sBR = strtok (NULL, "\t"); /* Get Branch */ sVR = strtok (NULL, "\t"); /* Get Version */ sST = strtok (NULL, "\t"); /* Get Stop Number */ sVI = strtok (NULL, "\t"); /* Get Vehicle */ sDT = strtok (NULL, "\t"); /* Get Date */ sTM = strtok (NULL, "\t"); /* Get Time */ /* ACTUAL INSERT WILL GO HERE */ n++; } fclose (pFile); printf("Imported %d records in %4.2f seconds\n", n, (clock() - cStartClock) / (double)CLOCKS_PER_SEC); sqlite3_close(db); return 0;}
“控制”
按原样运行代码实际上不会执行任何数据库操作,但是它将使我们了解原始C文件I / O和字符串处理操作的速度。
在0.94秒内导入864913记录
伟大的!只要我们实际上不执行任何插入操作,我们就可以每秒执行920,000次插入操作:-)
“最坏情况”
我们将使用从文件中读取的值来生成SQL字符串,并使用sqlite3_exec调用该SQL操作:
sprintf(sSQL, "INSERT INTO TTC VALUES (NULL, ''%s'', ''%s'', ''%s'', ''%s'', ''%s'', ''%s'', ''%s'')", sRT, sBR, sVR, sST, sVI, sDT, sTM);sqlite3_exec(db, sSQL, NULL, NULL, &sErrMsg);
这将很慢,因为对于每个插入,SQL都将被编译成VDBE代码,并且每个插入都将在其自己的事务中进行。有多慢
在9933.61秒内导入了864913条记录
kes!2小时45分钟!每秒只有85次插入。
使用交易
默认情况下,SQLite将评估唯一事务中的每个INSERT / UPDATE语句。如果执行大量插入操作,建议将操作包装在事务中:
sqlite3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &sErrMsg);pFile = fopen (INPUTDATA,"r");while (!feof(pFile)) { ...}fclose (pFile);sqlite3_exec(db, "END TRANSACTION", NULL, NULL, &sErrMsg);
在38.03秒内导入864913记录
这样更好 只需将所有插入物包装在一个事务中,就可以将性能提高到每秒23,000个插入物。
使用准备好的语句
使用事务是一个巨大的改进,但是如果我们反复使用相同的SQL,则为每个插入重新编译SQL语句是没有意义的。让我们使用sqlite3_prepare_v2
一次编译我们的SQL语句,然后使用以下命令将参数绑定到该语句sqlite3_bind_text
:
/* Open input file and import into the database */cStartClock = clock();sprintf(sSQL, "INSERT INTO TTC VALUES (NULL, @RT, @BR, @VR, @ST, @VI, @DT, @TM)");sqlite3_prepare_v2(db, sSQL, BUFFER_SIZE, &stmt, &tail);sqlite3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &sErrMsg);pFile = fopen (INPUTDATA,"r");while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); sRT = strtok (sInputBuf, "\t"); /* Get Route */ sBR = strtok (NULL, "\t"); /* Get Branch */ sVR = strtok (NULL, "\t"); /* Get Version */ sST = strtok (NULL, "\t"); /* Get Stop Number */ sVI = strtok (NULL, "\t"); /* Get Vehicle */ sDT = strtok (NULL, "\t"); /* Get Date */ sTM = strtok (NULL, "\t"); /* Get Time */ sqlite3_bind_text(stmt, 1, sRT, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 2, sBR, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 3, sVR, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 4, sST, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 5, sVI, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 6, sDT, -1, SQLITE_TRANSIENT); sqlite3_bind_text(stmt, 7, sTM, -1, SQLITE_TRANSIENT); sqlite3_step(stmt); sqlite3_clear_bindings(stmt); sqlite3_reset(stmt); n++;}fclose (pFile);sqlite3_exec(db, "END TRANSACTION", NULL, NULL, &sErrMsg);printf("Imported %d records in %4.2f seconds\n", n, (clock() - cStartClock) / (double)CLOCKS_PER_SEC);sqlite3_finalize(stmt);sqlite3_close(db);return 0;
在16.27秒内导入864913记录
好的!还有更多代码(不要忘记调用sqlite3_clear_bindings和sqlite3_reset),但是我们的性能提高了一倍以上,达到每秒53,000次插入。
PRAGMA同步= OFF
默认情况下,SQLite将在发出操作系统级别的写入命令后暂停。这样可以保证将数据写入磁盘。通过设置synchronous = OFF,我们指示SQLite只需将数据移交给OS进行写入,然后继续。如果计算机在将数据写入磁盘之前遭受灾难性崩溃(或电源故障),则数据库文件可能会损坏:
/* Open the database and create the schema */sqlite3_open(DATABASE, &db);sqlite3_exec(db, TABLE, NULL, NULL, &sErrMsg);sqlite3_exec(db, "PRAGMA synchronous = OFF", NULL, NULL, &sErrMsg);
在12.41秒内导入864913记录
现在,改进程度较小,但每秒最多可插入69,600个刀片。
PRAGMA journal_mode =OFF
考虑通过评估将回滚日志存储在内存中PRAGMA journal_mode = MEMORY。您的事务将更快,但是如果您在事务期间断电或程序崩溃,则数据库可能会因部分完成的事务而处于损坏状态:
/* Open the database and create the schema */sqlite3_open(DATABASE, &db);sqlite3_exec(db, TABLE, NULL, NULL, &sErrMsg);sqlite3_exec(db, "PRAGMA journal_mode = MEMORY", NULL, NULL, &sErrMsg);
在13.50秒内导入864913记录
每秒64,000次插入的速度比以前的优化稍慢。
PRAGMA synchronous = OFF and PRAGMA journal_mode = MEMORY
让我们结合前面的两个优化。风险更高一些(如果发生崩溃),但是我们只是在导入数据(不运行银行):
/* Open the database and create the schema */sqlite3_open(DATABASE, &db);sqlite3_exec(db, TABLE, NULL, NULL, &sErrMsg);sqlite3_exec(db, "PRAGMA synchronous = OFF", NULL, NULL, &sErrMsg);sqlite3_exec(db, "PRAGMA journal_mode = MEMORY", NULL, NULL, &sErrMsg);
在12.00秒内导入864913记录
极好的!我们每秒能够完成72,000次插入。
使用内存数据库
只是为了振奋人心,让我们基于所有先前的优化并重新定义数据库文件名,以便我们完全在RAM中工作:
#define DATABASE ":memory:"
在10.94秒内导入864913记录
将我们的数据库存储在RAM中并不是很实际,但是令人印象深刻的是,我们每秒可以执行79,000次插入。
重构C代码
尽管没有专门对SQLite进行改进,但我不喜欢循环中的额外char*赋值操作while。让我们快速重构该代码,以将的输出strtok()直接传递到sqlite3_bind_text(),让编译器尝试为我们加快速度:
pFile = fopen (INPUTDATA,"r");while (!feof(pFile)) { fgets (sInputBuf, BUFFER_SIZE, pFile); sqlite3_bind_text(stmt, 1, strtok (sInputBuf, "\t"), -1, SQLITE_TRANSIENT); /* Get Route */ sqlite3_bind_text(stmt, 2, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Branch */ sqlite3_bind_text(stmt, 3, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Version */ sqlite3_bind_text(stmt, 4, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Stop Number */ sqlite3_bind_text(stmt, 5, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Vehicle */ sqlite3_bind_text(stmt, 6, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Date */ sqlite3_bind_text(stmt, 7, strtok (NULL, "\t"), -1, SQLITE_TRANSIENT); /* Get Time */ sqlite3_step(stmt); /* Execute the SQL Statement */ sqlite3_clear_bindings(stmt); /* Clear bindings */ sqlite3_reset(stmt); /* Reset VDBE */ n++;}fclose (pFile);
注意:我们将回到使用真实的数据库文件。内存数据库速度很快,但不一定实用
在8.94秒内导入864913记录
稍微重构一下参数绑定中使用的字符串处理代码,就可以每秒执行96,700次插入。我认为可以肯定地说这是非常快的。当我们开始调整其他变量(即页面大小,索引创建等)时,这将成为我们的基准。
摘要(到目前为止)
我希望你仍然和我在一起!我们选择这条路的原因是,使用SQLite进行批量插入的性能变化如此之大,并且为加速我们的操作而需要进行哪些更改并不总是很明显。使用相同的编译器(和编译器选项),相同版本的SQLite和相同数据,我们优化了代码,并优化了SQLite的使用,使其从最坏的情况下每秒85次插入变为每秒超过96,000次插入!
先创建索引,然后插入VS.插入,然后创建索引
在开始衡量SELECT性能之前,我们知道我们将创建索引。在下面的答案之一中,建议进行批量插入时,插入数据后创建索引的速度更快(与先创建索引然后插入数据相反)。我们试试看:
创建索引然后插入数据
sqlite3_exec(db, "CREATE INDEX ''TTC_Stop_Index'' ON ''TTC'' (''Stop'')", NULL, NULL, &sErrMsg);sqlite3_exec(db, "BEGIN TRANSACTION", NULL, NULL, &sErrMsg);...
在18.13秒内导入864913记录
插入数据然后创建索引
...sqlite3_exec(db, "END TRANSACTION", NULL, NULL, &sErrMsg);sqlite3_exec(db, "CREATE INDEX ''TTC_Stop_Index'' ON ''TTC'' (''Stop'')", NULL, NULL, &sErrMsg);
在13.66秒内导入864913记录
不出所料,如果为一列建立索引,则大容量插入会较慢,但是如果在插入数据后创建索引,则确实会有所不同。我们的无索引基准是每秒96,000次插入。首先创建索引,然后插入数据,每秒可提供47,700次插入,而先创建数据,然后创建索引,则每秒可提供63,300次插入。
我很乐意为其他情况提供建议,以尝试…,并将很快为SELECT查询编译类似的数据。
答案1
小编典典几个技巧:
- 将插入/更新放入事务中。
- 对于较旧的SQLite版本,请考虑使用较少偏执的日记模式(pragma journal_mode)。有NORMAL,然后有OFF,如果您不太担心数据库可能因操作系统崩溃而损坏,则可以显着提高插入速度。如果您的应用程序崩溃了,数据应该没问题。请注意,在较新的版本中,OFF/MEMORY设置对于应用程序级崩溃不安全。
- 播放页面大小也会有所不同(PRAGMA page_size)。由于较大的页面保留在内存中,因此具有较大的页面大小可以使读取和写入的速度更快。请注意,更多的内存将用于您的数据库。
- 如果您有索引,请CREATE INDEX在完成所有插入操作后考虑调用。这比创建索引然后进行插入要快得多。
- 如果您可以并发访问SQLite,则必须非常小心,因为写入完成后整个数据库将被锁定,尽管可能有多个读取器,但写入将被锁定。通过在较新的SQLite版本中添加WAL,对此进行了一些改进。
- 利用节省空间的优势…较小的数据库运行速度更快。例如,如果您有键值对,请尝试将键设置为a(INTEGER PRIMARY KEY如果可能),它将替换表中隐含的唯一行号列。
- 如果使用多个线程,则可以尝试使用共享页面缓存,这将允许在线程之间共享已加载的页面,从而避免了昂贵的I / O调用。
- 不要使用!feof(file)!
.net – 使用Dapper ORM提高SQLite批量插入的性能
>我可以使用什么连接字符串参数来改进
性能?我应该更改缓冲区大小吗?这可能是通过一个
连接字符串参数?是否有任何其他连接字符串
参数提高性能?我当前的连接字符串是:
Data Source=Batch.db;Version=3;Pooling=True;Max Pool
Size=10;Synchronous=off;FailIfMissing=True;Journal Mode=Off;
>我正在使用Dapper ORM. (由StackOverflow的人员构建)是否有更快的方式批量插入到.net中的sqlite?
> System.Data.sqlite用于插入到sqlite中.如何获得改进的sqlite的特殊编译版本
性能? sqlite的一个版本比另一个版本好吗?目前
使用System.Data.sqlite从http://sqlite.phxsoftware.com
>目前,我在一个事务中包装插入以使它们更快(这是一个很好的改进).
>我一次插入一张表中,共17张.我可以在不同的线程并行化这个,使这更快吗?
当前业绩.
这是典型的吗我能做得更好吗
> 55,000行到19列的表:2.25秒插入(24k插入/秒)
> 10,000行到63列的表:2.74秒插入(3.7k /秒)
我喜欢sqlite,但我希望使它更快一些.目前使用XML序列化将对象保存到XML文件中比将其保存到sqlite数据库更快,所以我的老板问:为什么要切换到sqlite?还是应该使用MongoDB或其他对象数据库?
解决方法
本文解释了fastest way to do bulk inserts into SQLite.关键是重用相同的参数对象,但是要为每个记录插入,分配一个不同的值. .NET构建所有这些DbParameter对象的时候真的加起来了.例如,100k行和30列= 300万个必须创建的参数对象.相反,创建和重用只有30个参数对象要快得多.
新表演:
> 55,000行(19列).53秒= 100k插入/秒
internal const string PeakResultsInsert = @"INSERT INTO PeakResult values(@Id,@PeakID,@QuanPeakID,@ISTDRetentionTimeDiff)"; var command = cnn.CreateCommand(); command.CommandText = BatchConstants.PeakResultsInsert; string[] parameterNames = new[] { "@Id","@PeakID","@QuanPeakID","@ISTDRetentionTimeDiff" }; DbParameter[] parameters = parameterNames.Select(pn => { DbParameter parameter = command.CreateParameter(); parameter.ParameterName = pn; command.Parameters.Add(parameter); return parameter; }).ToArray(); foreach (var peakResult in peakResults) { parameters[0].Value = peakResult.Id; parameters[1].Value = peakResult.PeakID; parameters[2].Value = peakResult.QuanPeakID; parameters[3].Value = peakResult.ISTDRetentionTimeDiff; command.ExecuteNonQuery(); }
最后我不能使用Dapper插入我的大桌子. (对于我的小桌子,我仍然使用Dapper).
注意,我发现的其他一些事情:
>我尝试使用多个线程将数据插入同一个数据库,这没有任何改进. (没有什么区别)>从System.Data.sqlite升级1.0.69到1.0.79. (没有影响我的表现,我可以看到)>我没有将类型分配给DbParameter,它似乎没有使性能差异.对于阅读,我无法改善Dapper的表现.
c – 使用back_inserter()或inserter()提高std :: copy()的效率
例如,当你附加字符时,在复制时每个元素都会产生大量开销,而在许多情况下,实际上并不需要.
有没有办法让它们更有效率?
解决方法
总结
以上是小编为你收集整理的c – 使用back_inserter()或inserter()提高std :: copy()的效率全部内容。
如果觉得小编网站内容还不错,欢迎将小编网站推荐给好友。
Insertion Sort 与 Merge Sort的性能比较(Java)
1 public static void main(String[] args)
2 {
3 Scanner input = new Scanner(System.in);
4 int n = input.nextInt();
5 int[] a = new int[n];
6
7 //生成n个随机数
8 for(int i = 0; i < n; i++)
9 a[i] = (int)(Math.random() * 100);
10
11 /*long start = System.currentTimeMillis();
12 InsertionSort(a);
13 long end = System.currentTimeMillis();*/
14 //100000个测试数据InsertionSort的排序时间约为2800ms
15
16 /*System.out.println(Arrays.toString(a));
17 System.out.println(start);
18 System.out.println(end);
19 System.out.printf("The time is: %d", end - start);*/
20
21 //获取当前时间(ms)
22 long start = System.currentTimeMillis();
23 divide(a, 0, a.length - 1);
24 long end = System.currentTimeMillis();
25 //100000000个测试数据MergeSort的排序时间约为12000ms 10000000个测试数据用时约为1200ms
26 //相对于平均时间复杂度O(n^2)的插入排序 随着测试数据数量级的增长 性能提升极大
27
28 //System.out.println(Arrays.toString(a));
29 System.out.println(start);
30 System.out.println(end);
31 // end - start 即为排序算法运行的时间
32 System.out.println("The time is: " + (end - start));
33 }
34
35 /*public static void InsertionSort(int[] a)
36 {
37 for(int i = 1; i < a.length; i++)
38 {
39 int key = a[i];
40 int j;
41 for(j = i - 1; j >= 0 && key < a[j]; j--)
42 a[j + 1] = a[j];
43 a[j + 1] = key;
44 }
45 }*/
46
47 public static void divide(int[] a, int front, int rear)
48 {
49 if(rear <= front)
50 return;
51
52 int mid = front + (rear - front) / 2;
53 divide(a, mid + 1, rear);
54 divide(a, front, mid);
55 merge(a, front, mid, rear);
56 }
57
58 public static void merge(int[] a, int front, int mid, int rear)
59 {
60 int[] b = new int[rear - front + 1];
61 int i = front, j = mid + 1, k = 0;
62
63 while(i <= mid && j <= rear)
64 if(a[i] < a[j])
65 b[k++] = a[i++];
66 else
67 b[k++] = a[j++];
68
69 if(i > mid)
70 while(j <= rear)
71 b[k++] = a[j++];
72 else
73 while(i <= mid)
74 b[k++] = a[i++];
75
76 for(int t = 0, q = front; t < b.length; t++, ++q)
77 a[q] = b[t];
78 }
Kotlin SQLite“(代码1 SQLITE_ERROR):,同时编译:INSERT INTO”
我通过添加查询字符串解决了该问题。感谢您对g_bor的帮助。
sqlite_database = this.requireContext().openOrCreateDatabase("main_database",MODE_PRIVATE,null)
val create_table_if_not_exist_query = "CREATE TABLE IF NOT EXISTS schedules " +
"('schedule_id' INTEGER PRIMARY KEY," +
"'schedule_name' VARCHAR," +
"'schedule_info' VARCHAR," +
"'schedule_day' INTEGER," +
"'schedule_start_time' VARCHAR," +
"'schedule_end_time' VARCHAR," +
"'schedule_color' VARCHAR)"
sqlite_database.execSQL(create_table_if_not_exist_query)
val insert_into_query = "INSERT INTO schedules " +
"( 'schedule_name','schedule_info','schedule_day','schedule_start_time','schedule_end_time','schedule_color')" +
" VALUES " +
"( '$schedule_title','$schedule_info','$schedule_save_day','$start_time','$end_time','$schedule_color')"
sqlite_database.execSQL(insert_into_query)
关于提高SQLite每秒INSERT的性能的介绍已经告一段落,感谢您的耐心阅读,如果想了解更多关于.net – 使用Dapper ORM提高SQLite批量插入的性能、c – 使用back_inserter()或inserter()提高std :: copy()的效率、Insertion Sort 与 Merge Sort的性能比较(Java)、Kotlin SQLite“(代码1 SQLITE_ERROR):,同时编译:INSERT INTO”的相关信息,请在本站寻找。
本文标签: