Ich habe eine große CSV-Datei, und ich möchte sie alle anstelle von Zeile für Zeile einfügen. Das ist mein Code:Wie fügt man eine riesige CSV-Datei gleichzeitig in SQL Server in Python ein?
import pypyodbc
import csv
con = pypyodbc.connect('driver={SQL Server};' 'server=server_name;' 'database=DB-name;' 'trusted_connection=true')
cur = con.cursor()
csfile = open('out2.csv','r')
csv_data = csv.reader(csfile)
for row in csv_data:
try:
cur.execute("BULK INSERT INTO Table_name(Attribute, error, msg, Value, Success, TotalCount, SerialNo)" "VALUES (?, ?, ?, ?, ?, ?, ?)", row)
except Exception:
time.sleep(60)
cur.close()
con.commit()
con.close()
danke für den Vorschlag, aber ich denke, die gleiche Zeit auch wie die üblichen Insert-Anweisung Zeile für Zeile nehmen, so verwenden i statt Masseneinsatz. – Ricky