bulkinsert

    8熱度

    2回答

    好奇,如果這是可能的:應用程序服務器和數據庫服務器住在不同的地方(顯然)。應用程序服務器當前生成一個用於sql server批量插入的文件。 這要求數據庫和應用程序服務器都能夠看到位置,並且會在不同的環境中使配置更加困難。 我想知道的是:在這種情況下是否可以繞過文件系統?也許我可以將數據傳遞給sql server並讓它生成文件? 我在sql server 2008上,如果這有所作爲。 謝謝!

    7熱度

    3回答

    我正在處理每個50k行的數據塊。 我將它們插入到使用LINQ SQL數據庫: for(int i=0;i<50000;i++) { DB.TableName.InsertOnSubmit ( new TableName { Value1 = Array[i,0], Value2 = Array[i,1] }

    3熱度

    4回答

    我想將一個.csv文件插入到SQL Server 2008 R2中。 .csv從http://ipinfodb.com/ip_database.php完成300 + MB完成 (城市),4.0M記錄。 我這裏還有前5線,1號線=列標題: "ip_start";"country_code";"country_name";"region_code";"region_name";"city";"zipc

    1熱度

    1回答

    我試圖插入多行使用SqlCommand從C#到SQL Server。我正在形成一個簡單的查詢如下: Insert into temp(field1, field2) values (1, 'test'), (2, 'test1'), (3, 'test2')等等直到100行。爲了舉例,我只給了幾個字段,但它實際上包含了25個字段,其中20個是字符串。 此數據來自第三方API作爲列表,我正在形成多行

    2熱度

    2回答

    批量上傳 「\服務器\ wwwroot的\上傳\ LDSAgentsMap.txt」 SET QUOTED_IDENTIFIER ON SET ANSI_NULLS ON GO CREATE PROCEDURE [dbo].[sp_CSVTest_BulkInsert] (@Path NVARCHAR(128)) AS DECLARE @Sql NVARCHAR(256)

    0熱度

    1回答

    目前我們正在使用IRowsetFastLoad進行一些批量加載,每秒大約有50,000行。我的直覺告訴我這很低,並且考慮到數據大小的上限(大約10億行),那麼讓這個50K儘可能大是很好的。 有沒有人有我們應該從IRowsetFastLoad期望的指標?另外,我願意接受其他可以提高性能的方法。

    1熱度

    2回答

    我做從固定寬度文本文件使用 INSERT INTO blah SELECT blah1, blah2 FROM OPENROWSET(BULK 'filename.txt', FORMATFILE='format.xml'); 它的正常工作,但我想在文件中的空NULL值(所有空格)字段批量插入。這對格式文件中標記爲SQLINT,SQLDATETIME等的字段沒有任何問題,但SQLN

    6熱度

    1回答

    將多行插入到GTK樹視圖(使用PyGTK)時 - 或修改多行時,性能問題。問題在於,模型似乎在每次更改(插入/修改)後都會採用。這會導致GUI掛起幾秒鐘。通過註釋掉model.set_sort_column_id(SOME_ROW_INDEX, gtk.SORT_ASCENDING)來排除模型可以消除這些問題。 因此,我想禁用排序,而我插入或修改模型,並重新啓用之後它。遺憾的是,排序不能通過mod

    2熱度

    2回答

    我忙於CakePHP中的一個項目,我需要解析幾個XML文件並在mysql數據庫中插入相關數據。腳本插入它應該插入的內容,這不是問題。例如,如果我解析一個或兩個文件(大約7000-8000條記錄),沒有任何問題。 問題從我解析第三個或第四個xml文件開始。插入記錄一分鐘後,我看到9000-10000個記錄已成功插入到數據庫中,但突然間腳本似乎重新啓動。我注意到表中存在0條記錄,它將重新插入所有記錄。

    1熱度

    10回答

    我有一個需要運行日常腳本的應用程序;每日腳本包含下載一個包含1,000,000行的CSV文件,並將這些行插入表中。 我在Dreamhost中託管我的應用程序。我創建了一個遍歷所有CSV行的while循環,併爲每個行執行INSERT查詢。問題是我得到一個「500內部服務器錯誤」。即使我在1000個文件中以1000行記錄,我也不能在同一個循環中插入40或50多行。 有什麼方法可以優化輸入嗎?我也在考慮