Загрузка...

Получаем много ****** на халяву с помощью Python

Тема в разделе Статьи создана пользователем BenediktShmal Пятница в 01:22. 303 просмотра

Загрузка...
  1. BenediktShmal
    BenediktShmal Автор темы Пятница в 01:22 14 23 фев 2025
    Доброй ночи, жители форума. Вас приветствует новокек, и в этой статье я хочу рассказать вам как можно на халяву получать множество ****** из разных стран.

    Давайте начнем. Для работы скрипта нам понадобится Python. Установите версию 3.10.6. После установки Python необходимо установить библиотеки для получения ****** и проверки их работоспособности.

    Python
    pip install requests && pip install lxml && pip install beautifulsoup4 && pip install cfscrape

    После установки библиотек создайте файл с расширением .py, в который мы вставим следующий код. Он отвечает за парс ****** с различных сайтов.

    Python
    import cfscrape from bs4 import BeautifulSoup from datetime import date def main2(): try: print("Start 2 step || Site - free-proxy-list.net") scraper = cfscrape.create_scraper() r = scraper.get('https://free-proxy-list.net') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('table', class_='table table-striped table-bordered').find('tbody').find_all('tr') for tr in line: td = tr.find_all('td') ip = td[0].text port = td[1].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip + ":" + port + "\n")) except Exception as e: print(e) def main3(): try: print("Start 3 step || Site - free.proxy-sale.com") scraper = cfscrape.create_scraper() r = scraper.get('https://free.proxy-sale.com') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('div', class_="main__table-wrap").find('table').find('tbody').find_all('tr') for i in line: td = i.find_all('td', class_="ip") for n in td: a = n.find("a").text.replace("Нажмите ⌘-С чтобы скопировать Скопировать в буфер", " ").strip() ip = a with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip + "\n")) except Exception as e: print(e) def main4(): try: print("Start 4 step || Site - proxyscrape.com and openproxylist.xyz") scraper = cfscrape.create_scraper() response5 = scraper.get("https://openproxylist.xyz/http.txt") response6 = scraper.get("https://openproxylist.xyz/socks4.txt") response7 = scraper.get("https://openproxylist.xyz/socks5.txt") proxies5 = response5.text.strip() proxies6 = response6.text.strip() proxies7 = response7.text.strip() with open("proxy_scraped.txt", "a") as txt_file: txt_file.write(proxies5+"\n"+proxies6+"\n"+proxies7+"\n") except Exception as e: print(e) def main5(): try: print("Start 5 step || Site - hidemy.name") scraper = cfscrape.create_scraper() r = scraper.get('https://hidemy.name/ru/proxy-list/') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('div', class_="table_block").find('table').find('tbody').find_all('tr') for a in line: td = a.find_all('td') ip = td[0].text port = td[1].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip + ":" + port + "\n")) except Exception as e: print(e) kol_st = 0 def main7(): try: print("Start 7 step || Site - sslproxies.org") scraper = cfscrape.create_scraper() r = scraper.get(f'https://www.sslproxies.org/#list') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('table', class_="table table-striped table-bordered").find('tbody').find_all('tr') for a in line: td = a.find_all('td') ip = td[0].text port = td[1].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip + ":" + port + "\n")) except Exception as e: print(e) def main8(): try: print("Start 8 step || Site - spys.one") scraper = cfscrape.create_scraper() r = scraper.get(f'https://spys.one') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1", align="left").find_all('tr', class_="spy1x", onmouseover="this.style.background='#002424'") line2 = soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1",align="left").find_all('tr', class_="spy1xx",onmouseover="this.style.background='#002424'") for tr in line: td = tr.find_all('td') ip = td[0].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip + '\n')) for tr2 in line2: td2 = tr2.find_all('td') ip2 = td2[0].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip2 + '\n')) except Exception as e: print(e) def main10(): try: print("Start 10 step || Site - userel.com") scraper = cfscrape.create_scraper() r = scraper.get(f'https://userel.com/') soup = BeautifulSoup(r.text, 'lxml') line = soup.find('div', class_="proxy").find('table').find_all('tr') for tr in line: td = tr.find_all('td') ip = td[0].text with open("proxy_scraped.txt", "a+", encoding="utf-8") as f: f.write(str(ip) + '\n') except Exception as e: print(e) def main11(): try: print("Start 11 step || Site - ArchiveProxy") scraper = cfscrape.create_scraper() ear, month, day = str(date.today()).split('-') ear = int(ear) month = int(month) day = int(day) for today in range(day): try: scoc = scraper.get(f'https://checkerproxy.net/api/archive/{ear}-{month}-{today}').json() except: break try: for i in range(40000): with open('proxy_scraped.txt', 'a+') as file: file.write(scoc[i]['addr'] + '\n') except: pass except Exception as e: print(e) if __name__ == "__main__": main2() main3() main4() main5() main7() main8() main10() main11() print("Duplicates cleaning...") with open("proxy_scraped.txt") as input_: result = dict.fromkeys(input_).keys() with open("proxy_scraped.txt", "w") as output: print(*result, file=output, sep="") print("Duplicates successfully cleared!")


    После того как вы вставили код, запустите скрипт. Вам нужно подождать некоторое время, пока он спарсит ****** с открытых источников, после чего удалит дубликаты.

    Теперь, когда у нас есть файл proxy_scraped.txt, создайте второй файл .py, в который вставьте следующий код. Он отвечает за проверку ****** на функциональность, а также разделяет их по протоколам (socks, http) и сортирует по странам.

    Python
    import threading import requests import os filename = input("FILENAME: ") timeout = int(input("TIMEOUT: ")) x = 0 y = 0 def check_proxy(proxy): global y protocols = ['http', 'https', 'socks4', 'socks5'] for protocol in protocols: try: proxies = {protocol: f'{protocol}://{proxy}', 'https': f'{protocol}://{proxy}'} response = requests.get('http://ip-api.com/json', proxies=proxies, timeout=timeout) if response.status_code == 200: data = response.json() country = data['country'] folder_path = os.path.join('country', country) file_path = os.path.join(folder_path, f'{protocol}.txt') file_path2 = os.path.join(folder_path, 'ALL.txt') file_path3 = os.path.join("ALL", "ALL.txt") file_path4 = os.path.join("ALL", protocol) os.makedirs(folder_path, exist_ok=True) os.makedirs("ALL", exist_ok=True) with open(file_path, 'a') as f: #country f.write(f'{proxy}\n') with open(file_path2, 'a') as f: #country all f.write(f'{proxy}\n') with open(f"{file_path4}.txt", 'a') as f: f.write(f'{proxy}\n') with open(file_path3, 'a') as f: f.write(f'{proxy}\n') y += 1 except: pass with open(filename, 'r') as f: proxy_list = [line.strip() for line in f] for i in proxy_list: t = threading.Thread(target=check_proxy, args=(i,)).start() x += 1 print(f"\r\rVerified: {x}/{len(proxy_list)} Good: {y}", end='')


    Мы запускаем скрипт, и после того как программа проверит свою работу, она отсортирует работающие ****** по странам.

    Вы также можете использовать этот чекер для проверки своих ******. ****** будут разделены по протоколам, а также в папке со скриптом будет создана папка «ALL», в которой будут находиться все ****** без разделения по странам и без разделения по протоколам.

    После - используем ****** для своих нужд. С вами был Бенедикт Шмаль, спасибо что прочли статью до конца. Желаю вам хорошей ночи и успешного ворка.
     
    Этот материал оказался полезным?
    Вы можете отблагодарить автора темы путем перевода средств на баланс
    Отблагодарить автора
    Пятница в 01:22 Изменено
  2. Димагвоздь
    Димагвоздь Пятница в 01:33 ты меня запомнишь сученька 895 9 янв 2025
    ахуенно мужик
     
    1. BenediktShmal Автор темы
  3. Нинтендо
    Нинтендо Пятница в 01:38 Лучшая разработка https://lolz.live/threads/8139598/ 3048 12 сен 2021
    ахуеная статья :dynyl:
     
  4. Svoj
    Svoj Пятница в 07:56 11 941 12 мар 2018
    В целом неплохо. Вопросы только к качеству таких проксей. Но это, как говорится, другая история.
     
    1. Wersity
      Svoj, главное что бесплатно :Rotvgovne:
    2. BenediktShmal Автор темы
      Svoj, по сути да, но на халяву под какие то свои легонькие цели - почему бы и нет
Top
JavaScript error: