<div>So far I've figured out that this error has nothing to do with Python. After couple of million iterations, one of the nodes (any random node) in the cluster crashes and thus python threads time out.</div><div>I am trying to make sense out of error and crash logs.</div>
<div><br></div><div>Cheers</div><div>Nitish</div><br><div class="gmail_quote">On Sat, Nov 19, 2011 at 10:16 PM, Erik Søe Sørensen <span dir="ltr"><<a href="mailto:ess@trifork.com">ess@trifork.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">A timeout... Do you know what the timeout threshold is? Have you tried increasing it (if possible; I don't know the Python client) or simply retrying once or twice on timeout?<br>

Also, what backend is Riak configured with? - I believe eleveldb has occasional lower throughput/higher latency because of file compaction.<br>
<div><div></div><div class="h5"><br>
----- Reply message -----<br>
Fra: "Nitish Sharma" <<a href="mailto:sharmanitishdutt@gmail.com">sharmanitishdutt@gmail.com</a>><br>
Dato: lør., nov. 19, 2011 13:22<br>
Emne: Error while importing data<br>
Til: "riak-users" <<a href="mailto:riak-users@lists.basho.com">riak-users@lists.basho.com</a>><br>
<br>
Hi,<br>
To give my Riak setup a good stress testing, I decided to import a large dataset (consisting of around 160 million records). But before importing the whole thing, I tested the import python script (using protocol buffers) using 1 million records, which was successful with ~2200 writes/sec. The script, essentially, puts the data into a queue and couple of threads gets the data from the queue and store it in Riak.<br>

When started with full dataset, after storing several million objects, I get thread exception with timeout errors.<br>
Following is the traceback:<br>
<br>
  File "/usr/lib/python2.7/threading.py", line 552, in __bootstrap_inner<br>
    self.run()<br>
  File "/usr/lib/python2.7/threading.py", line 505, in run<br>
    self.__target(*self.__args, **self.__kwargs)<br>
  File "python_load_data.py", line 23, in worker<br>
    new_obj.store()<br>
  File "/usr/local/lib/python2.7/dist-packages/riak-1.3.0-py2.7.egg/riak/riak_object.py", line 296, in store<br>
    Result = t.put(self, w, dw, return_body)<br>
  File "/usr/local/lib/python2.7/dist-packages/riak-1.3.0-py2.7.egg/riak/transports/pbc.py", line 188, in put<br>
    msg_code, resp = self.recv_msg()<br>
  File "/usr/local/lib/python2.7/dist-packages/riak-1.3.0-py2.7.egg/riak/transports/pbc.py", line 370, in recv_msg<br>
    raise Exception(msg.errmsg)<br>
Exception: timeout<br>
<br>
The cluster consists of 3 nodes (Ubuntu 10.04). The nodes have enough disk space; number of file handles used (~2500) are also within limit (32768); number of concurrent ports 32768. I cant figure out what else could be the possible reason for the exceptions.<br>

<br>
Any Suggestions?<br>
<br>
Cheers<br>
Nitish<br>
</div></div></blockquote></div><br>