You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
I started using shell gpt for chatgpt and having a companion ai help with my code. But then I activate it and send a message to it. and this is the result: (long text)
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connectionpool.py:536 in │
│ _make_request │
│ │
│ 533 │ │ │
│ 534 │ │ # Receive the response from the server │
│ 535 │ │ try: │
│ ❱ 536 │ │ │ response = conn.getresponse() │
│ 537 │ │ except (BaseSSLError, OSError) as e: │
│ 538 │ │ │ self._raise_timeout(err=e, url=url, timeout_value=read_timeout) │
│ 539 │ │ │ raise │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ body = b'{"messages": [{"role": "user", "content": "###\nRole name: │ │
│ │ default\nYou are Comm'+676 │ │
│ │ chunked = False │ │
│ │ conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ decode_content = False │ │
│ │ enforce_content_length = True │ │
│ │ headers = {'User-Agent': 'python-requests/2.31.0', 'Accept-Encoding': 'gzip, │ │
│ │ deflate', 'Accept': '/', 'Connection': 'keep-alive', │ │
│ │ 'Content-Type': 'application/json', 'Authorization': 'Bearer │ │
│ │ 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', │ │
│ │ 'Content-Length': '756'} │ │
│ │ method = 'POST' │ │
│ │ preload_content = False │ │
│ │ read_timeout = 60 │ │
│ │ response_conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ retries = Retry(total=0, connect=None, read=False, redirect=None, │ │
│ │ status=None) │ │
│ │ self = <urllib3.connectionpool.HTTPSConnectionPool object at │ │
│ │ 0x7f96de8accd0> │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ timeout_obj = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connection.py:461 in │
│ getresponse │
│ │
│ 458 │ │ from .response import HTTPResponse │
│ 459 │ │ │
│ 460 │ │ # Get the response from http.client.HTTPConnection │
│ ❱ 461 │ │ httplib_response = super().getresponse() │
│ 462 │ │ │
│ 463 │ │ try: │
│ 464 │ │ │ assert_header_parsing(httplib_response.msg) │
│ │
│ ╭─────────────────────────────────── locals ───────────────────────────────────╮ │
│ │ HTTPResponse = <class 'urllib3.response.HTTPResponse'> │ │
│ │ resp_options = _ResponseOptions( │ │
│ │ │ request_method='POST', │ │
│ │ │ request_url='/v1/chat/completions', │ │
│ │ │ preload_content=False, │ │
│ │ │ decode_content=False, │ │
│ │ │ enforce_content_length=True │ │
│ │ ) │ │
│ │ self = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ ╰──────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/http/client.py:1378 in getresponse │
│ │
│ 1375 │ │ │
│ 1376 │ │ try: │
│ 1377 │ │ │ try: │
│ ❱ 1378 │ │ │ │ response.begin() │
│ 1379 │ │ │ except ConnectionError: │
│ 1380 │ │ │ │ self.close() │
│ 1381 │ │ │ │ raise │
│ │
│ ╭───────────────────────────────── locals ─────────────────────────────────╮ │
│ │ response = <http.client.HTTPResponse object at 0x7f96de879840> │ │
│ │ self = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ ╰──────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/http/client.py:318 in begin │
│ │
│ 315 │ │ │
│ 316 │ │ # read until we get a non-100 response │
│ 317 │ │ while True: │
│ ❱ 318 │ │ │ version, status, reason = self._read_status() │
│ 319 │ │ │ if status != CONTINUE: │
│ 320 │ │ │ │ break │
│ 321 │ │ │ # skip the header from the 100 response │
│ │
│ ╭────────────────────────── locals ──────────────────────────╮ │
│ │ self = <http.client.HTTPResponse object at 0x7f96de879840> │ │
│ ╰────────────────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/http/client.py:279 in _read_status │
│ │
│ 276 │ │ self.will_close = _UNKNOWN # conn will close at end of response │
│ 277 │ │
│ 278 │ def _read_status(self): │
│ ❱ 279 │ │ line = str(self.fp.readline(_MAXLINE + 1), "iso-8859-1") │
│ 280 │ │ if len(line) > _MAXLINE: │
│ 281 │ │ │ raise LineTooLong("status line") │
│ 282 │ │ if self.debuglevel > 0: │
│ │
│ ╭────────────────────────── locals ──────────────────────────╮ │
│ │ self = <http.client.HTTPResponse object at 0x7f96de879840> │ │
│ ╰────────────────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/socket.py:706 in readinto │
│ │
│ 703 │ │ │ raise OSError("cannot read from timed out object") │
│ 704 │ │ while True: │
│ 705 │ │ │ try: │
│ ❱ 706 │ │ │ │ return self._sock.recv_into(b) │
│ 707 │ │ │ except timeout: │
│ 708 │ │ │ │ self._timeout_occurred = True │
│ 709 │ │ │ │ raise │
│ │
│ ╭───────────────────── locals ──────────────────────╮ │
│ │ b = <memory at 0x7f96de8a01c0> │ │
│ │ self = <socket.SocketIO object at 0x7f96de879ab0> │ │
│ ╰───────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/ssl.py:1278 in recv_into │
│ │
│ 1275 │ │ │ │ raise ValueError( │
│ 1276 │ │ │ │ "non-zero flags not allowed in calls to recv_into() on %s" % │
│ 1277 │ │ │ │ self.class) │
│ ❱ 1278 │ │ │ return self.read(nbytes, buffer) │
│ 1279 │ │ else: │
│ 1280 │ │ │ return super().recv_into(buffer, nbytes, flags) │
│ 1281 │
│ │
│ ╭────────────────────────────── locals ──────────────────────────────╮ │
│ │ buffer = <memory at 0x7f96de8a01c0> │ │
│ │ flags = 0 │ │
│ │ nbytes = 8192 │ │
│ │ self = <ssl.SSLSocket [closed] fd=-1, family=2, type=1, proto=6> │ │
│ ╰────────────────────────────────────────────────────────────────────╯ │
│ │
│ /usr/lib64/python3.11/ssl.py:1134 in read │
│ │
│ 1131 │ │ │ raise ValueError("Read on closed or unwrapped SSL socket.") │
│ 1132 │ │ try: │
│ 1133 │ │ │ if buffer is not None: │
│ ❱ 1134 │ │ │ │ return self._sslobj.read(len, buffer) │
│ 1135 │ │ │ else: │
│ 1136 │ │ │ │ return self._sslobj.read(len) │
│ 1137 │ │ except SSLError as x: │
│ │
│ ╭────────────────────────────── locals ──────────────────────────────╮ │
│ │ buffer = <memory at 0x7f96de8a01c0> │ │
│ │ len = 8192 │ │
│ │ self = <ssl.SSLSocket [closed] fd=-1, family=2, type=1, proto=6> │ │
│ ╰────────────────────────────────────────────────────────────────────╯ │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
TimeoutError: The read operation timed out
The above exception was the direct cause of the following exception:
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/adapters.py:486 in send │
│ │
│ 483 │ │ │ timeout = TimeoutSauce(connect=timeout, read=timeout) │
│ 484 │ │ │
│ 485 │ │ try: │
│ ❱ 486 │ │ │ resp = conn.urlopen( │
│ 487 │ │ │ │ method=request.method, │
│ 488 │ │ │ │ url=url, │
│ 489 │ │ │ │ body=request.body, │
│ │
│ ╭──────────────────────────────────── locals ─────────────────────────────────────╮ │
│ │ cert = None │ │
│ │ chunked = False │ │
│ │ conn = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ proxies = OrderedDict() │ │
│ │ request = <PreparedRequest [POST]> │ │
│ │ self = <requests.adapters.HTTPAdapter object at 0x7f96de89de10> │ │
│ │ stream = True │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ │ verify = True │ │
│ ╰─────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connectionpool.py:844 in │
│ urlopen │
│ │
│ 841 │ │ │ elif isinstance(new_e, (OSError, HTTPException)): │
│ 842 │ │ │ │ new_e = ProtocolError("Connection aborted.", new_e) │
│ 843 │ │ │ │
│ ❱ 844 │ │ │ retries = retries.increment( │
│ 845 │ │ │ │ method, url, error=new_e, _pool=self, _stacktrace=sys.exc_info()[2] │
│ 846 │ │ │ ) │
│ 847 │ │ │ retries.sleep() │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ assert_same_host = False │ │
│ │ body = b'{"messages": [{"role": "user", "content": "###\nRole name: │ │
│ │ default\nYou are Comm'+676 │ │
│ │ body_pos = None │ │
│ │ chunked = False │ │
│ │ clean_exit = False │ │
│ │ conn = None │ │
│ │ decode_content = False │ │
│ │ destination_scheme = None │ │
│ │ err = None │ │
│ │ headers = {'User-Agent': 'python-requests/2.31.0', 'Accept-Encoding': 'gzip, │ │
│ │ deflate', 'Accept': '/', 'Connection': 'keep-alive', │ │
│ │ 'Content-Type': 'application/json', 'Authorization': 'Bearer │ │
│ │ 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', │ │
│ │ 'Content-Length': '756'} │ │
│ │ http_tunnel_required = False │ │
│ │ method = 'POST' │ │
│ │ new_e = ReadTimeoutError("HTTPSConnectionPool(host='api.openai.com', │ │
│ │ port=443): Read timed out. (read timeout=60)") │ │
│ │ parsed_url = Url( │ │
│ │ │ scheme=None, │ │
│ │ │ auth=None, │ │
│ │ │ host=None, │ │
│ │ │ port=None, │ │
│ │ │ path='/v1/chat/completions', │ │
│ │ │ query=None, │ │
│ │ │ fragment=None │ │
│ │ ) │ │
│ │ pool_timeout = None │ │
│ │ preload_content = False │ │
│ │ redirect = False │ │
│ │ release_conn = False │ │
│ │ release_this_conn = True │ │
│ │ response_conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ response_kw = {} │ │
│ │ retries = Retry(total=0, connect=None, read=False, redirect=None, status=None) │ │
│ │ self = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ timeout_obj = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/util/retry.py:470 in │
│ increment │
│ │
│ 467 │ │ elif error and self._is_read_error(error): │
│ 468 │ │ │ # Read retry? │
│ 469 │ │ │ if read is False or method is None or not self._is_method_retryable(method): │
│ ❱ 470 │ │ │ │ raise reraise(type(error), error, _stacktrace) │
│ 471 │ │ │ elif read is not None: │
│ 472 │ │ │ │ read -= 1 │
│ 473 │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ _pool = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ _stacktrace = <traceback object at 0x7f96de8ad780> │ │
│ │ cause = 'unknown' │ │
│ │ connect = None │ │
│ │ error = ReadTimeoutError("HTTPSConnectionPool(host='api.openai.com', port=443): │ │
│ │ Read timed out. (read timeout=60)") │ │
│ │ method = 'POST' │ │
│ │ other = None │ │
│ │ read = False │ │
│ │ redirect = None │ │
│ │ redirect_location = None │ │
│ │ response = None │ │
│ │ self = Retry(total=0, connect=None, read=False, redirect=None, status=None) │ │
│ │ status = None │ │
│ │ status_count = None │ │
│ │ total = -1 │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/util/util.py:39 in │
│ reraise │
│ │
│ 36 │ try: │
│ 37 │ │ if value.traceback is not tb: │
│ 38 │ │ │ raise value.with_traceback(tb) │
│ ❱ 39 │ │ raise value │
│ 40 │ finally: │
│ 41 │ │ value = None # type: ignore[assignment] │
│ 42 │ │ tb = None │
│ │
│ ╭─────────────────────── locals ────────────────────────╮ │
│ │ tb = None │ │
│ │ tp = <class 'urllib3.exceptions.ReadTimeoutError'> │ │
│ │ value = None │ │
│ ╰───────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connectionpool.py:790 in │
│ urlopen │
│ │
│ 787 │ │ │ response_conn = conn if not release_conn else None │
│ 788 │ │ │ │
│ 789 │ │ │ # Make the request on the HTTPConnection object │
│ ❱ 790 │ │ │ response = self._make_request( │
│ 791 │ │ │ │ conn, │
│ 792 │ │ │ │ method, │
│ 793 │ │ │ │ url, │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ assert_same_host = False │ │
│ │ body = b'{"messages": [{"role": "user", "content": "###\nRole name: │ │
│ │ default\nYou are Comm'+676 │ │
│ │ body_pos = None │ │
│ │ chunked = False │ │
│ │ clean_exit = False │ │
│ │ conn = None │ │
│ │ decode_content = False │ │
│ │ destination_scheme = None │ │
│ │ err = None │ │
│ │ headers = {'User-Agent': 'python-requests/2.31.0', 'Accept-Encoding': 'gzip, │ │
│ │ deflate', 'Accept': '/', 'Connection': 'keep-alive', │ │
│ │ 'Content-Type': 'application/json', 'Authorization': 'Bearer │ │
│ │ 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', │ │
│ │ 'Content-Length': '756'} │ │
│ │ http_tunnel_required = False │ │
│ │ method = 'POST' │ │
│ │ new_e = ReadTimeoutError("HTTPSConnectionPool(host='api.openai.com', │ │
│ │ port=443): Read timed out. (read timeout=60)") │ │
│ │ parsed_url = Url( │ │
│ │ │ scheme=None, │ │
│ │ │ auth=None, │ │
│ │ │ host=None, │ │
│ │ │ port=None, │ │
│ │ │ path='/v1/chat/completions', │ │
│ │ │ query=None, │ │
│ │ │ fragment=None │ │
│ │ ) │ │
│ │ pool_timeout = None │ │
│ │ preload_content = False │ │
│ │ redirect = False │ │
│ │ release_conn = False │ │
│ │ release_this_conn = True │ │
│ │ response_conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ response_kw = {} │ │
│ │ retries = Retry(total=0, connect=None, read=False, redirect=None, status=None) │ │
│ │ self = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ timeout_obj = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connectionpool.py:538 in │
│ _make_request │
│ │
│ 535 │ │ try: │
│ 536 │ │ │ response = conn.getresponse() │
│ 537 │ │ except (BaseSSLError, OSError) as e: │
│ ❱ 538 │ │ │ self._raise_timeout(err=e, url=url, timeout_value=read_timeout) │
│ 539 │ │ │ raise │
│ 540 │ │ │
│ 541 │ │ # Set properties that are used by the pooling layer. │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ body = b'{"messages": [{"role": "user", "content": "###\nRole name: │ │
│ │ default\nYou are Comm'+676 │ │
│ │ chunked = False │ │
│ │ conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ decode_content = False │ │
│ │ enforce_content_length = True │ │
│ │ headers = {'User-Agent': 'python-requests/2.31.0', 'Accept-Encoding': 'gzip, │ │
│ │ deflate', 'Accept': '/', 'Connection': 'keep-alive', │ │
│ │ 'Content-Type': 'application/json', 'Authorization': 'Bearer │ │
│ │ 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', │ │
│ │ 'Content-Length': '756'} │ │
│ │ method = 'POST' │ │
│ │ preload_content = False │ │
│ │ read_timeout = 60 │ │
│ │ response_conn = <urllib3.connection.HTTPSConnection object at 0x7f96de8ad7d0> │ │
│ │ retries = Retry(total=0, connect=None, read=False, redirect=None, │ │
│ │ status=None) │ │
│ │ self = <urllib3.connectionpool.HTTPSConnectionPool object at │ │
│ │ 0x7f96de8accd0> │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ timeout_obj = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/urllib3/connectionpool.py:370 in │
│ _raise_timeout │
│ │
│ 367 │ │ """Is the error actually a timeout? Will raise a ReadTimeout or pass""" │
│ 368 │ │ │
│ 369 │ │ if isinstance(err, SocketTimeout): │
│ ❱ 370 │ │ │ raise ReadTimeoutError( │
│ 371 │ │ │ │ self, url, f"Read timed out. (read timeout={timeout_value})" │
│ 372 │ │ │ ) from err │
│ 373 │
│ │
│ ╭─────────────────────────────────────── locals ────────────────────────────────────────╮ │
│ │ err = TimeoutError('The read operation timed out') │ │
│ │ self = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ timeout_value = 60 │ │
│ │ url = '/v1/chat/completions' │ │
│ ╰───────────────────────────────────────────────────────────────────────────────────────╯ │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
ReadTimeoutError: HTTPSConnectionPool(host='api.openai.com', port=443): Read timed out. (read timeout=60)
During handling of the above exception, another exception occurred:
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/app.py:167 in main │
│ │
│ 164 │ │ │ caching=cache, │
│ 165 │ │ ) │
│ 166 │ else: │
│ ❱ 167 │ │ full_completion = DefaultHandler(role_class).handle( │
│ 168 │ │ │ prompt, │
│ 169 │ │ │ model=model, │
│ 170 │ │ │ temperature=temperature, │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ cache = True │ │
│ │ chat = None │ │
│ │ code = False │ │
│ │ create_role = None │ │
│ │ describe_shell = False │ │
│ │ editor = False │ │
│ │ install_integration = None │ │
│ │ list_chats = None │ │
│ │ list_roles = None │ │
│ │ model = 'gpt-3.5-turbo' │ │
│ │ prompt = 'I use the command source and file address to your activate file to │ │
│ │ enable you in'+126 │ │
│ │ repl = None │ │
│ │ role = None │ │
│ │ role_class = <sgpt.role.SystemRole object at 0x7f96de893c50> │ │
│ │ shell = False │ │
│ │ show_chat = None │ │
│ │ show_role = None │ │
│ │ stdin_passed = False │ │
│ │ temperature = 0.1 │ │
│ │ top_probability = 1.0 │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/handlers/handler.py:33 in │
│ handle │
│ │
│ 30 │ │ stream = cfg.get("DISABLE_STREAMING") == "false" │
│ 31 │ │ if not stream: │
│ 32 │ │ │ typer.echo("Loading...\r", nl=False) │
│ ❱ 33 │ │ for word in self.get_completion(messages=messages, **kwargs): │
│ 34 │ │ │ typer.secho(word, fg=self.color, bold=True, nl=False) │
│ 35 │ │ │ full_completion += word │
│ 36 │ │ typer.echo("\033[K" if not stream else "") # Overwrite "loading..." │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ full_completion = '' │ │
│ │ kwargs = { │ │
│ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ 'temperature': 0.1, │ │
│ │ │ 'top_probability': 1.0, │ │
│ │ │ 'caching': True │ │
│ │ } │ │
│ │ messages = [ │ │
│ │ │ { │ │
│ │ │ │ 'role': 'user', │ │
│ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ } │ │
│ │ ] │ │
│ │ prompt = 'I use the command source and file address to your activate file to enable │ │
│ │ you in'+126 │ │
│ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f96df2a0c10> │ │
│ │ stream = True │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/handlers/handler.py:25 in │
│ get_completion │
│ │
│ 22 │ │ raise NotImplementedError │
│ 23 │ │
│ 24 │ def get_completion(self, **kwargs: Any) -> Generator[str, None, None]: │
│ ❱ 25 │ │ yield from self.client.get_completion(**kwargs) │
│ 26 │ │
│ 27 │ def handle(self, prompt: str, **kwargs: Any) -> str: │
│ 28 │ │ messages = self.make_messages(self.make_prompt(prompt)) │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ kwargs = { │ │
│ │ │ 'messages': [ │ │
│ │ │ │ { │ │
│ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App ShellGPT, │ │
│ │ a programming and syst'+543 │ │
│ │ │ │ } │ │
│ │ │ ], │ │
│ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ 'temperature': 0.1, │ │
│ │ │ 'top_probability': 1.0, │ │
│ │ │ 'caching': True │ │
│ │ } │ │
│ │ self = <sgpt.handlers.default_handler.DefaultHandler object at 0x7f96df2a0c10> │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/client.py:98 in │
│ get_completion │
│ │
│ 95 │ │ :param caching: Boolean value to enable/disable caching. │
│ 96 │ │ :return: String generated completion. │
│ 97 │ │ """ │
│ ❱ 98 │ │ yield from self._request( │
│ 99 │ │ │ messages, │
│ 100 │ │ │ model, │
│ 101 │ │ │ temperature, │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ caching = True │ │
│ │ messages = [ │ │
│ │ │ { │ │
│ │ │ │ 'role': 'user', │ │
│ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ } │ │
│ │ ] │ │
│ │ model = 'gpt-3.5-turbo' │ │
│ │ self = <sgpt.client.OpenAIClient object at 0x7f96dfff2c50> │ │
│ │ temperature = 0.1 │ │
│ │ top_probability = 1.0 │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/cache.py:39 in wrapper │
│ │
│ 36 │ │ │ │ yield cache_file.read_text() │
│ 37 │ │ │ │ return │
│ 38 │ │ │ result = "" │
│ ❱ 39 │ │ │ for i in func(*args, **kwargs): │
│ 40 │ │ │ │ result += i │
│ 41 │ │ │ │ yield i │
│ 42 │ │ │ cache_file.write_text(result) │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ args = ( │ │
│ │ │ <sgpt.client.OpenAIClient object at 0x7f96dfff2c50>, │ │
│ │ │ [ │ │
│ │ │ │ { │ │
│ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ │ } │ │
│ │ │ ], │ │
│ │ │ 'gpt-3.5-turbo', │ │
│ │ │ 0.1, │ │
│ │ │ 1.0 │ │
│ │ ) │ │
│ │ cache_file = PosixPath('/tmp/cache/cb0b7f00d97fb3683ef08a83d827de3f') │ │
│ │ cache_key = 'cb0b7f00d97fb3683ef08a83d827de3f' │ │
│ │ func = <function OpenAIClient._request at 0x7f96de84b420> │ │
│ │ kwargs = {} │ │
│ │ result = '' │ │
│ │ self = <sgpt.cache.Cache object at 0x7f96df31ab10> │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/sgpt/client.py:50 in _request │
│ │
│ 47 │ │ │ "stream": stream, │
│ 48 │ │ } │
│ 49 │ │ endpoint = f"{self.api_host}/v1/chat/completions" │
│ ❱ 50 │ │ response = requests.post( │
│ 51 │ │ │ endpoint, │
│ 52 │ │ │ # Hide API key from Rich traceback. │
│ 53 │ │ │ headers={ │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ data = { │ │
│ │ │ 'messages': [ │ │
│ │ │ │ { │ │
│ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ │ } │ │
│ │ │ ], │ │
│ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ 'temperature': 0.1, │ │
│ │ │ 'top_p': 1.0, │ │
│ │ │ 'stream': True │ │
│ │ } │ │
│ │ endpoint = 'https://api.openai.com/v1/chat/completions' │ │
│ │ messages = [ │ │
│ │ │ { │ │
│ │ │ │ 'role': 'user', │ │
│ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ } │ │
│ │ ] │ │
│ │ model = 'gpt-3.5-turbo' │ │
│ │ self = <sgpt.client.OpenAIClient object at 0x7f96dfff2c50> │ │
│ │ stream = True │ │
│ │ temperature = 0.1 │ │
│ │ top_probability = 1.0 │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/api.py:115 in post │
│ │
│ 112 │ :rtype: requests.Response │
│ 113 │ """ │
│ 114 │ │
│ ❱ 115 │ return request("post", url, data=data, json=json, **kwargs) │
│ 116 │
│ 117 │
│ 118 def put(url, data=None, **kwargs): │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ data = None │ │
│ │ json = { │ │
│ │ │ 'messages': [ │ │
│ │ │ │ { │ │
│ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App ShellGPT, │ │
│ │ a programming and syst'+543 │ │
│ │ │ │ } │ │
│ │ │ ], │ │
│ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ 'temperature': 0.1, │ │
│ │ │ 'top_p': 1.0, │ │
│ │ │ 'stream': True │ │
│ │ } │ │
│ │ kwargs = { │ │
│ │ │ 'headers': { │ │
│ │ │ │ 'Content-Type': 'application/json', │ │
│ │ │ │ 'Authorization': 'Bearer │ │
│ │ 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' │ │
│ │ │ }, │ │
│ │ │ 'timeout': 60, │ │
│ │ │ 'stream': True │ │
│ │ } │ │
│ │ url = 'https://api.openai.com/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/api.py:59 in request │
│ │
│ 56 │ # avoid leaving sockets open which can trigger a ResourceWarning in some │
│ 57 │ # cases, and look like a memory leak in others. │
│ 58 │ with sessions.Session() as session: │
│ ❱ 59 │ │ return session.request(method=method, url=url, **kwargs) │
│ 60 │
│ 61 │
│ 62 def get(url, params=None, **kwargs): │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ kwargs = { │ │
│ │ │ 'data': None, │ │
│ │ │ 'json': { │ │
│ │ │ │ 'messages': [ │ │
│ │ │ │ │ { │ │
│ │ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ │ │ } │ │
│ │ │ │ ], │ │
│ │ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ │ 'temperature': 0.1, │ │
│ │ │ │ 'top_p': 1.0, │ │
│ │ │ │ 'stream': True │ │
│ │ │ }, │ │
│ │ │ 'headers': { │ │
│ │ │ │ 'Content-Type': 'application/json', │ │
│ │ │ │ 'Authorization': 'Bearer │ │
│ │ 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' │ │
│ │ │ }, │ │
│ │ │ 'timeout': 60, │ │
│ │ │ 'stream': True │ │
│ │ } │ │
│ │ method = 'post' │ │
│ │ session = <requests.sessions.Session object at 0x7f96de89e3d0> │ │
│ │ url = 'https://api.openai.com/v1/chat/completions' │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/sessions.py:589 in │
│ request │
│ │
│ 586 │ │ │ "allow_redirects": allow_redirects, │
│ 587 │ │ } │
│ 588 │ │ send_kwargs.update(settings) │
│ ❱ 589 │ │ resp = self.send(prep, **send_kwargs) │
│ 590 │ │ │
│ 591 │ │ return resp │
│ 592 │
│ │
│ ╭─────────────────────────────────────────── locals ───────────────────────────────────────────╮ │
│ │ allow_redirects = True │ │
│ │ auth = None │ │
│ │ cert = None │ │
│ │ cookies = None │ │
│ │ data = None │ │
│ │ files = None │ │
│ │ headers = { │ │
│ │ │ 'Content-Type': 'application/json', │ │
│ │ │ 'Authorization': 'Bearer │ │
│ │ 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' │ │
│ │ } │ │
│ │ hooks = None │ │
│ │ json = { │ │
│ │ │ 'messages': [ │ │
│ │ │ │ { │ │
│ │ │ │ │ 'role': 'user', │ │
│ │ │ │ │ 'content': '###\nRole name: default\nYou are Command Line App │ │
│ │ ShellGPT, a programming and syst'+543 │ │
│ │ │ │ } │ │
│ │ │ ], │ │
│ │ │ 'model': 'gpt-3.5-turbo', │ │
│ │ │ 'temperature': 0.1, │ │
│ │ │ 'top_p': 1.0, │ │
│ │ │ 'stream': True │ │
│ │ } │ │
│ │ method = 'post' │ │
│ │ params = None │ │
│ │ prep = <PreparedRequest [POST]> │ │
│ │ proxies = {} │ │
│ │ req = <Request [POST]> │ │
│ │ self = <requests.sessions.Session object at 0x7f96de89e3d0> │ │
│ │ send_kwargs = { │ │
│ │ │ 'timeout': 60, │ │
│ │ │ 'allow_redirects': True, │ │
│ │ │ 'proxies': OrderedDict(), │ │
│ │ │ 'stream': True, │ │
│ │ │ 'verify': True, │ │
│ │ │ 'cert': None │ │
│ │ } │ │
│ │ settings = {'proxies': OrderedDict(), 'stream': True, 'verify': True, 'cert': None} │ │
│ │ stream = True │ │
│ │ timeout = 60 │ │
│ │ url = 'https://api.openai.com/v1/chat/completions' │ │
│ │ verify = None │ │
│ ╰──────────────────────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/sessions.py:703 in send │
│ │
│ 700 │ │ start = preferred_clock() │
│ 701 │ │ │
│ 702 │ │ # Send the request │
│ ❱ 703 │ │ r = adapter.send(request, **kwargs) │
│ 704 │ │ │
│ 705 │ │ # Total elapsed time of the request (approximately) │
│ 706 │ │ elapsed = preferred_clock() - start │
│ │
│ ╭────────────────────────────────── locals ──────────────────────────────────╮ │
│ │ adapter = <requests.adapters.HTTPAdapter object at 0x7f96de89de10> │ │
│ │ allow_redirects = True │ │
│ │ hooks = {'response': []} │ │
│ │ kwargs = { │ │
│ │ │ 'timeout': 60, │ │
│ │ │ 'proxies': OrderedDict(), │ │
│ │ │ 'stream': True, │ │
│ │ │ 'verify': True, │ │
│ │ │ 'cert': None │ │
│ │ } │ │
│ │ request = <PreparedRequest [POST]> │ │
│ │ self = <requests.sessions.Session object at 0x7f96de89e3d0> │ │
│ │ start = 1692139602.8130457 │ │
│ │ stream = True │ │
│ ╰────────────────────────────────────────────────────────────────────────────╯ │
│ │
│ /home/hbarudi/ShellGPT/shellgpt/lib64/python3.11/site-packages/requests/adapters.py:532 in send │
│ │
│ 529 │ │ │ │ # This branch is for urllib3 versions earlier than v1.22 │
│ 530 │ │ │ │ raise SSLError(e, request=request) │
│ 531 │ │ │ elif isinstance(e, ReadTimeoutError): │
│ ❱ 532 │ │ │ │ raise ReadTimeout(e, request=request) │
│ 533 │ │ │ elif isinstance(e, _InvalidHeader): │
│ 534 │ │ │ │ raise InvalidHeader(e, request=request) │
│ 535 │ │ │ else: │
│ │
│ ╭──────────────────────────────────── locals ─────────────────────────────────────╮ │
│ │ cert = None │ │
│ │ chunked = False │ │
│ │ conn = <urllib3.connectionpool.HTTPSConnectionPool object at 0x7f96de8accd0> │ │
│ │ proxies = OrderedDict() │ │
│ │ request = <PreparedRequest [POST]> │ │
│ │ self = <requests.adapters.HTTPAdapter object at 0x7f96de89de10> │ │
│ │ stream = True │ │
│ │ timeout = Timeout(connect=60, read=60, total=None) │ │
│ │ url = '/v1/chat/completions' │ │
│ │ verify = True │ │
│ ╰─────────────────────────────────────────────────────────────────────────────────╯ │
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
ReadTimeout: HTTPSConnectionPool(host='api.openai.com', port=443): Read timed out. (read timeout=60)
Should I simply uninstall and reinstall this and have this situation happened to anyone?
Beta Was this translation helpful? Give feedback.
All reactions