利用者:Bcxfubot/BOT作業依頼/log/20210213/prog
表示
# [orig] replace.py
# URL張替
# 先頭
# ↓
# {{改名提案|新ページ名|{{subst:DATE}}|t=ノート:スポーツ 最近の出来事 2005年8月}}
import re
import time
import pywikibot
from urllib.parse import urlparse
replace_ato = "{{改名提案|新ページ名|{{subst:DATE}}|t=ノート:スポーツ 最近の出来事 2005年8月}}"
#max = 10
#max = 10
max = 120
sleepsec = 60
######################################################
# 処理モード
#procmode = 0
procmode = 1
######################################################
def get_domain(target):
url = ""
result = re.search ( "(http[^ ]+)", target)
if result:
url = result.group(1)
else:
return target
parsed_uri = urlparse(url )
result = '{uri.netloc}'.format(uri=parsed_uri)
return result
def replace_page(pagetitle):
site = pywikibot.Site()
page = pywikibot.Page(site, pagetitle)
#text = page.text
#print(text)
pagetext = page.text
#print(linelist)
newline = replace_ato
newpagetitle = pagetitle.replace( ":スポーツ 最近の出来事 ", "Portal:最近の出来事/スポーツ/")
print("newpagetitle=" + newpagetitle)
if not "Portal" in newpagetitle:
if not "利用者:Bcxfubot/bottest" in newpagetitle:
raise Exception
newline = newline.replace( "新ページ名", newpagetitle)
print("newline=" + newline)
if "新ページ名" in newline:
raise Exception
outtext = newline + "\n" + pagetext
#print("outtext=" + outtext)
#modflag = 0 # テスト中
modflag = 1
if modflag == 1:
page.text = outtext
if procmode == 1:
#page.save("外部リンクの修正 " + target_https + " ([[Wikipedia:Bot|Bot]]による編集)")
#page.save("外部リンクの修正 http:// -> https:// ([[Wikipedia:Bot|Bot]]による編集)")
#page.save("外部リンクの修正 http:// -> https:// (" + get_domain( target ) + ") ([[Wikipedia:Bot|Bot]]による編集)")
page.save("[[Wikipedia:Bot作業依頼#スポーツにおける最近の出来事の改名提案テンプレート貼り]] ([[Wikipedia:Bot|Bot]]による編集)")
# 処理対象のページ名をひとつ返す
# 処理対象がない場合は""を返す
def get_pagetitle():
path = "list"
with open(path) as f:
for s_line in f:
s_line = s_line.rstrip("\n")
#print(s_line)
#if not re.search(",sumi", s_line):
if not s_line.endswith(",sumi"):
return s_line
return ""
# 処理した行にsumiをつける
def done_pagetitle(pagetitle):
path = "list"
alltext = ""
with open(path) as f:
for s_line in f:
s_line = s_line.rstrip("\n")
#print(s_line + "\n")
#if re.search(pagetitle, s_line):
if pagetitle == s_line:
s_line = s_line + ",sumi"
alltext += s_line + "\n"
with open(path, mode='w') as f:
f.write(alltext)
return ""
def sub():
num = 0
for i in range(max):
num = num + 1
pagetitle = get_pagetitle()
print("[" + str(num) + "/" + str(max) + "]" + ":" + "pagetitle=" + pagetitle)
if pagetitle == "":
break
replace_page(pagetitle)
done_pagetitle(pagetitle)
if ( i < (max - 1) ):
print("sleep(" + str(sleepsec) + ")")
time.sleep(sleepsec)
def main():
sub()
print("done.")
if __name__ == '__main__':
main()